CN107209572A - 用于显示画面的方法和电子设备 - Google Patents

用于显示画面的方法和电子设备 Download PDF

Info

Publication number
CN107209572A
CN107209572A CN201680008645.7A CN201680008645A CN107209572A CN 107209572 A CN107209572 A CN 107209572A CN 201680008645 A CN201680008645 A CN 201680008645A CN 107209572 A CN107209572 A CN 107209572A
Authority
CN
China
Prior art keywords
picture
electronic equipment
display
user
handover event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680008645.7A
Other languages
English (en)
Inventor
韩智然
金铉埈
南秉勋
李宁必
赵梓洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107209572A publication Critical patent/CN107209572A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种用于通过电子设备显示画面的方法和装置。该方法包括:显示包括第一对象的第一画面;检测画面切换事件以从所显示的第一画面切换为第二画面;以及当第二画面不包括第一对象时,在第二画面上显示第一对象的至少一部分。

Description

用于显示画面的方法和电子设备
技术领域
本公开总体上涉及一种用于显示画面的方法和电子设备,更具体地,涉及一种用于显示包括对象的画面的方法和电子设备。
背景技术
使用诸如显示设备的电子设备提供虚拟现实服务的技术正在积极开发中。显示设备可以将一个画面划分成左侧和右侧,并且分别在划分的画面上显示与左眼和右眼对应的图像。头戴式影院(HMT)设备是正在开发的设备的示例,其可以与提供划分的画面上显示的图像的显示设备组合以将划分的图像组合到用户的整个视域中。因此,可以通过用户的整个视域向用户提供虚拟现实服务。
显示设备可以响应于佩戴者的运动而改变画面并提供改变后的画面。例如,当显示设备检测到右旋转时,显示设备可以提供相对于当前显示的画面的右侧配置的画面。
发明内容
技术问题
然而,由于提供另一画面,电子设备可能无法显示常规显示的对象。此外,用户应当执行切换画面的操作以搜索特定对象。
问题的解决方案
本公开至少解决上述问题和/或缺点,并至少提供下述优点。
因此,本公开的一个方面在于提供一种用于显示画面的方法和装置以解决上述问题和/或其他问题。
本公开的另一方面在于提供一种用于显示画面的方法和电子设备,所述方法和电子设备能够跟踪特定对象,使得用户可以简单选择该特定对象而不执行多个画面切换操作。
根据本公开的一个方面,提供了一种用于通过电子设备显示画面的方法。该方法包括:显示包括第一对象的第一画面;检测画面切换事件以从所显示的第一画面切换为第二画面;以及当第二画面不包括第一对象时,在第二画面上显示第一对象的至少一部分。
根据本公开的另一方面,提供了一种电子设备。该电子设备包括:显示器,显示包括第一对象的第一画面;以及处理器,检测画面切换事件以将显示器从显示第一画面切换为显示第二画面,并且当第二画面不包括第一对象时,控制显示器在第二画面上显示第一对象的至少一部分。
根据本公开的另一方面,提供了一种用于通过电子设备显示画面的方法。该方法包括:显示包括第一对象的第一画面;检测画面切换事件以从第一画面切换为第二画面;以及当第二画面不包括第一对象时,显示第一对象的位置。
根据本公开的另一方面,提供了一种电子设备。该电子设备包括:显示器,显示包括第一对象的第一画面;以及处理器,检测画面切换事件以从第一画面切换为第二画面,并且当第二画面不包括第一对象时,控制显示器显示第一对象的位置。
附图说明
根据结合附图的以下详细描述,本公开的一些实施例的上述和其他方面、特征和优点将更清楚,在附图中:
图1示出了根据本公开实施例的包括电子设备的网络环境;
图2示出了根据本公开实施例的程序模块;
图3a是示出了根据本公开实施例的电子设备和观看设备的透视图;
图3b示出了根据本公开实施例的电子设备的显示方法;
图3c是根据本公开实施例的用户观看的画面的概念图;
图4a是示出了根据本公开实施例的用户佩戴HMT设备的透视图;
图4b至图4e是示出了根据本公开实施例的电子设备的画面切换操作的概念图;
图5a是示出了根据本公开实施例的用于虚拟现实服务的整个画面的概念图;
图5b示出了根据本公开实施例的电子设备;
图5c是示出了根据本公开实施例的用户观看的画面的概念图;
图5d是示出了根据本公开实施例的用于虚拟现实服务的整个画面的概念图;
图5e示出了根据本公开实施例的电子设备;
图5f是示出了根据本公开实施例的用户观看的画面的概念图;
图5g是示出了根据本公开实施例的整个画面的概念图;
图6是示出了根据本公开实施例的显示画面的方法的流程图;
图7a和图7b是示出了根据本公开实施例的画面的概念图;
图8a和图8b是示出了根据本公开实施例的对象在整个画面上的位置的移动的概念图;
图9是示出了根据本公开实施例的改变要跟踪的对象的位置的处理的流程图;
图10是示出了根据本公开实施例的整个画面的部分画面的改变的概念图;
图11a和图11b是示出了根据本公开实施例的要跟踪的对象在整个画面上的移动的概念图;
图12a是示出了根据本公开实施例的显示画面的方法的流程图;
图12b是示出了根据本公开实施例的显示画面的方法的流程图;
图13是示出了根据本公开实施例的显示画面的方法的流程图;
图14a和图14b是示出了根据本公开实施例的整个画面和显示画面的概念图;
图15a至图15c示出了根据本公开实施例的与向后画面切换事件相对应的整个画面和显示画面;
图16是示出了根据本公开实施例的画面的概念图;
图17a和图17b是示出了根据本公开实施例的根据用户视域在z轴方向上的移动来显示要跟踪的对象的方法的概念图;
图18是示出了根据本公开实施例的显示画面的方法的流程图;
图19和图20是示出了根据本公开实施例的显示要跟踪的对象的位置的方法的概念图;
图21a和图21b是示出了根据本公开实施例的电子设备的概念图;
图22a和图22b是示出了根据本公开实施例的通过电子设备显示画面的方法的概念图;以及
图23是根据本公开实施例的电子设备的框图。
具体实施方式
在下文中,将参考附图来描述本公开的各种实施例。然而,应该理解的是,不旨在将本公开局限于本文公开的具体形式;相反,本公开应当被解释为覆盖本公开的实施例的各种修改、等同物和/或替代。在描述附图的过程中,相似的附图标记可以用于表示相似的组成元件。
本文所用的术语仅用于描述具体实施例的目的,而非意在限制其他实施例的范围。例如,除非上下文另外清楚地指示,否则如本文所使用的,单数形式也可以包括复数形式。除非另行定义,否则本文所用的所有术语(包括技术术语和科学术语)具有与本公开所属技术领域的技术人员通常理解的含义相同的含义。除非本文清楚地如此定义,否则在常用词典中定义的术语将被解释为具有与相关技术领域中的上下文含义相同的含义,而不应解释为具有理想的或过分正式的含义。
如本文所用,表述“具有”、“可以具有”、“包括”或“可以包括”表示存在对应特征(例如,数字、功能、操作或诸如组件的组成元件),而不排除一个或多个附加特征。
如本文所用,表述“A或B”、“A和/或B中的至少一项”或“A和/或B中的一个或多个”可以包括一起列举的项目的任何或所有可能组合。例如,表述“A或B”、“A和B中的至少一个”或“A或B中的至少一个”可以包括:(1)至少一个A,(2)至少一个B,或(3)至少一个A和至少一个B二者。
本文使用的表述“第一”、“第二”、“所述第一”或“所述第二”可以修饰各种元件,而不管其顺序和/或重要性如何,但不限制对应元件。以上表述仅用于将一个元件与其他元件进行区分的目的。例如,第一用户设备和第二用户设备可以指示不同的用户设备,而与其顺序或重要性无关。例如,在不脱离本公开的范围的情况下,第一元件可以被称为第二元件,类似地,第二元件可以被称为第一元件。
当一元件(例如,第一元件)被称为(可操作或可通信地)“连接”或“耦接”到另一元件(例如,第二元件)时,其可以直接连接或直接耦接到第二元件,或者可以在它们之间插入另一元件(例如,第三元件)。然而,当第一元件被称为“直接连接”或“直接耦接”到第二元件时,它们之间没有插入任何元件。
本文中,表述“(被)配置为”可以根据情况与例如“适合于”、“具有...的能力”、“(被)设计为”、“适于”、“被制造为”或“能够”互换。术语“被配置为”可能不一定意味着在硬件方面“被专门设计为”。
备选地,在一些情况下,表述“被配置为...的设备”可以意味着该设备与其他设备或组件一起“能够...”。
例如,短语“适于(或被配置为)执行A、B和C的处理器”可以意味着仅用于执行对应操作的专用处理器(例如,嵌入式处理器)、或可以通过执行存储在存储设备中的一个或多个软件程序来执行对应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器(AP))。
根据本公开各种实施例的电子设备可以包括智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书(e-book)阅读器、台式PC、膝上型PC、上网计算机、个人数字助理(PDA)、便携式多媒体播放器(PMP)、MP3播放器、移动医疗设备、相机和可穿戴设备(例如,诸如电子眼镜的头戴式设备(HDM)、电子服饰、电子手环、电子项链、电子配饰、电子纹身或智能手表)。
电子设备还可以是智能家用电器,例如,电视、数字视频盘(DVD)播放器、音频设备、冰箱、空调、吸尘器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家用自动控制面板、安全控制面板、TV盒(例如,SamsungApple或Google)、游戏机(例如,)、电子词典、电子钥匙、录像机和电子相框。
电子设备还可以包括各种医疗设备(例如,各种便携式医疗测量设备(例如,血糖监控设备、心率监控设备、血压测量设备、体温测量设备等)、磁共振血管造影(MRA)设备、磁共振成像(MRI)设备、计算机断层扫描(CT)机和超声波机、导航设备、全球定位系统(GPS)接收机、事件数据记录仪(EDR)、飞行数据记录仪(FDR)、车辆信息娱乐设备、船用电子设备(例如,航海导航设备和罗盘)、航空电子设备、安全设备、车辆头端单元、家用或工业机器人、银行的自动柜员机(ATM)、商店的销售点(POS)设备或物联网(IoT)设备(例如,灯泡、各种传感器、电表或燃气表、自动喷水设备、火警、恒温器、路灯、烤面包机、运动器材、热水箱、加热器、锅炉等)。
电子设备还可以包括家具、建筑物/结构、电子板、电子签名接收设备、投影仪或各种测量仪器(例如,水表、电表、气表和无线电波表)。
此外,电子设备可以是柔性设备。
电子设备还可以是上述各种设备中的一个或多个的组合。然而,电子设备还不限于上述设备,并且可以根据技术的发展而包括新型电子设备。
如本文所用,术语“用户”可以指示使用电子设备的人或使用电子设备的设备(例如,人工智能电子设备)。
图1示出了根据本公开实施例的包括电子设备的网络环境。
参考图1,网络环境100内的电子设备101包括总线110、处理器120、存储器130、输入/输出接口150、显示器160、通信模块170和感测模块180。备选地,电子设备101可以省略上述元件中的至少一个,和/或还可以包括其他元件。
总线110可以包括用于将元件120到180相连并在这些元件之间传送通信(例如,控制消息和/或数据)的电路。
处理器120可以包括CPU、AP和通信处理器(CP)中的一个或多个。例如,处理器120可以控制电子设备101的一个或多个其他元件和/或处理与通信相关的操作或数据。处理器120可以被称作控制器,或者可以包括控制器作为其部件。
存储器130可以包括易失性存储器和/或非易失性存储器。存储器130可以存储例如与电子设备101的至少一个其他元件相关的指令或数据。存储器130存储软件和/或程序140。
在图1中,程序140包括内核141、中间件143、应用编程接口(API)145和应用程序(或“应用”)147。内核141、中间件143和API 145中的至少一部分可以被称作操作系统(OS)。
内核141可以控制或管理用于执行在其他程序(例如,中间件143、API 145和应用程序147)中所实现的操作或功能的系统资源(例如,总线110、处理器120和存储器130)。此外,内核141可以提供接口,其中中间件143、API 145或应用程序147可以通过所述接口访问电子设备101的各个元件以便控制或管理系统资源。
中间件143可以用作中介,以允许API 145或应用程序147与内核141通信以交换数据。此外,关于从应用程序147接收的任务请求,中间件143可以使用向至少一个应用分配使用电子设备101的系统资源(例如,总线110、处理器120或存储器130)的优先级的方法,来执行对任务请求的控制(例如,调度或负载均衡)。
API 145是应用147用来控制从内核141或中间件143提供的功能的接口,并且可以包括例如用于文件控制、窗口控制、图像处理或文本控制的至少一个接口或功能(例如,指令)。
输入/输出接口150可以用作用于向电子设备101的其他元件发送从用户或外部设备输入的命令或数据的接口。此外,输入/输出接口150可以向用户或外部设备输出从电子设备101的其他元件接收的命令或数据。
显示器160可以包括液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器或电子纸显示器。显示器160可以向用户显示各种类型的内容(例如,文本、图像、视频、图标或符号)。显示器160可以包括用于使用电子笔或用户的身体部位接收触摸输入、手势输入、接近输入和/或悬停输入的触摸屏。
通信模块170可以在例如电子设备101和外部设备(例如,外部电子设备102、外部电子设备104或服务器106)之间配置通信。例如,通信模块170可以通过无线通信或有线通信与网络162相连,以与外部电子设备104或服务器106进行通信。
无线通信可以使用例如长期演进(LTE)、高级LTE(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)中的至少一个,例如作为蜂窝通信协议。例如,有线通信可以包括通用串行总线(USB)、高清多媒体接口(HDMI)、推荐标准232(RS-232)和普通老式电话服务(POTS)中的至少一个。
网络162可以包括至少一种通信网络,诸如计算机网络(例如,局域网(LAN)或广域网(WAN))、互联网和电话网。
外部电子设备102和104的每一个可以是与电子设备101相同类型或不同类型的设备。
服务器106可以包括具有一个或多个服务器的组。
可以由另一电子设备或多个电子设备102或104或服务器106执行电子设备101所执行的所有操作或一些操作。
当电子设备101应当自动地或根据请求来执行一些功能或服务时,电子设备101可以向另一设备102或104或服务器106发送用于执行与所述功能或服务相关的至少一些功能的请求,而不是由自身执行所述功能或服务。另一电子设备可以执行所请求的功能或附加功能,并将通过执行功能获得的结果传送给电子设备101。电子设备101可以基于接收到的结果或在额外处理接收到的结果之后,提供请求的功能或服务。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
感测模块180可以通过执行在电子设备101中实现的操作(或功能)中的至少一个来支持电子设备101的驱动。
感测模块180可以测量物理量或检测电子设备101的操作状态,并且可以将测量的或检测的信息转换为电信号。例如,感测模块180可以包括姿势传感器、陀螺仪传感器、大气压传感器、磁传感器、加速度传感器、握力传感器、接近传感器、颜色传感器(例如,红绿蓝(RGB)传感器)、生物传感器、温度/湿度传感器、照度传感器和紫外(UV)传感器中的至少一个。附加地或备选地,感测模块180可以包括电子鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外线(IR)传感器、虹膜传感器和/或指纹传感器。
感测模块180可以处理从其他组件(例如,处理器120、存储器130、输入/输出接口150和通信模块170中的至少一个)获得的信息的至少一部分,并可以以各种方式使用该信息。例如,感测模块180可以通过使用处理器120或独立于处理器120来控制电子设备101的至少一些功能,使得电子设备101可以与其他电子设备102或104或服务器106互相配合。感测模块180可以集成到处理器120或通信模块170中。备选地,感测模块180的至少一个元件可以被包括在服务器106中,并且感测模块180中实现的至少一个操作可以由服务器106支持。
显示器160可以显示包括第一对象的第一画面。处理器120可以进行控制以检测用于将显示器的画面从第一画面切换为第二画面的画面切换事件,并且当第二画面不包括第一对象时,在第二画面上显示第一对象的至少一部分。
感测模块180可以检测电子设备101的移动。在这种情况下,画面切换事件可以是电子设备的移动。
处理器120可以进行控制以基于移动的程度和方向中的至少一个将与预设整个画面的第一部分相对应的第一画面切换为与该预设整个画面的第二部分相对应的第二画面并显示所切换的第二画面。
处理器120可以进行控制以显示第二画面,使得第一对象的至少一部分接触第二画面的边界。
处理器120可以进行控制以显示第二画面,使得第一对象的至少该部分通过与画面切换事件相对应的画面切换从第一对象接触第二画面的边界的时间点起接触第二画面的边界。
处理器120可以进行控制以检测向后画面切换事件,并且响应于向后画面切换事件来显示第一对象,其中所述向后画面切换事件用于沿与画面切换事件相对应的画面切换的方向相反的方向进行画面切换。
处理器120还可以进行控制以在第二画面的预设位置处显示第一对象,并且进行控制以根据画面切换事件在预设整个画面上改变和显示第一对象的位置。
第一画面可以包括左眼图像和右眼图像以提供虚拟现实服务。
显示器160可以显示包括第一对象的第一画面。处理器20可以进行控制以检测用于将显示器120的画面从第一画面切换为第二画面的画面切换事件,并且当第二画面不包括第一对象时,显示第一对象的位置。
处理器120可以进行控制以显示指示第一对象的位置的指示符和表示第一对象的相对位置的地图信息中的至少一个。
图2示出了根据本公开实施例的程序模块。例如,图2所示的程序模块可以用作图1所示的程序140。
参考图2,程序模块210包括用于控制与其所安装的电子设备相关的资源的OS和/或在OS中运行的各种应用。例如,OS可以是 等。
程序模块210包括内核220、中间件230、API 260和应用270。程序模块210的至少一部分可以被预加载在电子设备中或从服务器下载。
内核220包括系统资源管理器221和设备驱动器223。系统资源管理器221可以控制、分配或收集系统资源。系统资源管理器221可以包括进程管理器、存储器管理器和/或文件系统管理器。设备驱动器223可以包括显示器驱动器、相机驱动器、蓝牙驱动器、共享存储器驱动器、USB驱动器、键区驱动器、Wi-Fi驱动器、音频驱动器或进程间通信(IPC)驱动器。
中间件230可以提供应用270共同需要的功能,或者通过API 260向应用270提供各种功能,使得应用270高效地使用电子设备的有限系统资源。中间件230包括:运行库235、应用管理器241、窗口管理器242、多媒体管理器243、资源管理器244、电源管理器245、数据库管理器246、分组管理器247、连接管理器248、通知管理器249、位置管理器250、图形管理器251和安全管理器252。
运行库235可以包括由编译器用来在执行应用270期间通过编程语言添加新功能的库模块。运行库235可以执行输入/输出管理、存储器管理和/或算术函数的功能。
应用管理器241可以管理应用270中的至少一个应用的生命周期。
窗口管理器242可以管理屏幕中使用的图形用户界面(GUI)资源。
多媒体管理器243可以检测用于再现各种媒体文件所需的格式,并可以使用适用于相应格式的编解码器对媒体文件进行编码或解码。
资源管理器244可以管理资源,诸如应用270中的至少一个应用的源代码、内存或存储空间。
电源管理器245可以与基本输入/输出系统(BIOS)一起操作以管理电池或电力,并可以提供用于操作电子设备的电力信息。
数据库管理器246可以产生、搜索和/或改变将被至少一个应用270使用的数据库。
包管理器247可以管理以包文件的形式分发的应用的安装或更新。
连接管理器248可以管理例如Wi-Fi或蓝牙的无线连接。
通知管理器249可以向用户显示或通知诸如接收的消息、预约、接近通知等的事件。
位置管理器250可以管理电子设备的位置信息。
图形管理器251可以管理将向用户提供的图形效果以及与图形效果相关的用户界面。
安全管理器252可以提供用于系统安全或用户认证所需的各种安全功能。
当电子设备具有呼叫功能时,中间件230还可以包括电话管理器,用于管理电子设备的语音呼叫功能或视频呼叫功能。
中间件230可以包括中间件模块,用于形成上述元件的各种功能的组合。中间件230可以提供根据每种类型的操作系统而被专门化的模块,以便提供差异化的功能。此外,可以从中间件230中动态地去除一些已有元件,或者可以向中间件230添加新的元件。
作为API编程功能集合的API 260可以针对每个OS而具有不同配置。例如,使用可以针对每个平台提供一个API集合。当使用时,可以针对每个平台提供两个或更多个API集合。
应用270包括主页应用271、拨号器应用272、短消息服务/多媒体消息服务(SMS/MMS)应用273、即时消息(IM)应用274、浏览器应用275、相机应用276、闹钟应用277、联系人信息应用278、语音拨号应用279、电子邮件应用280、日历应用281、媒体播放器应用282、相册应用283和时钟应用284。备选地,可以从应用270中去除这些应用中的一些。此外,应用270中可以包括其他应用,诸如健康护理应用(例如,用于测量锻炼量或血糖的应用)和环境信息应用(例如,用于提供大气压、湿度或温度信息的应用)。
应用270还可以包括用于支持电子设备与外部电子设备之间的信息交换的信息交换应用。例如,信息交换应用可以包括用于向外部电子设备发送特定信息的通知中继应用或者用于管理外部电子设备的设备管理应用。
例如,通知中继应用可以包括将从电子设备的其他应用(例如,SMS/MMS应用273、电子邮件应用280、健康管理应用或环境信息应用)产生的通知信息向外部电子设备传送的功能。
此外,通知中继应用可以从外部电子设备接收通知信息,并将接收到的通知信息提供给用户。
设备管理应用可以管理(例如,安装、删除或更新)与电子设备通信的外部电子设备的至少一部分的功能(例如,开启/关闭外部电子设备自身(或其一些元件)或者调整显示器的亮度(或分辨率))、在外部电子设备中执行的应用、或从外部电子设备提供的服务(例如,电话呼叫服务或消息服务)。
应用270可以包括根据外部电子设备的属性(例如,诸如与移动医疗设备对应的电子设备的类型之类的电子设备的属性)所指定的应用(例如,健康管理应用)。
应用270可以包括从外部电子设备接收的应用。应用270还可以包括预加载的应用或可以从服务器下载的第三方应用。
程序模块210的元件名称可以根据OS的类型而改变。
程序模块210的至少一部分可以被实现为软件、固件、硬件或它们中的两个或更多个的组合。程序模块210的至少一部分可以由处理器实现(例如,执行)。程序模块210的至少一部分可以包括例如用于执行一个或多个功能的模块、程序、例程、指令集、进程等。
图3a是示出了根据本公开实施例的电子设备和观看设备的透视图。
参考图3a,电子设备301包括显示器,并存储可以向用户提供类似于实际现实的显示的虚拟现实应用。例如,虚拟现实应用基于立体方案显示与用户的每只眼睛相对应的左眼图像和右眼图像。
观看设备302可以是HMT设备,甚至在用户移动时其也可以佩戴在用户的头上。此外,观看设备102容纳电子设备301,使得用户可以通过观看设备102观看电子设备301上显示的图像。
观看设备302包括佩戴在用户头上的壳体350、在与用户眼睛的位置相对应的区域固定到壳体的遮蔽(blackout)部分330以及设置在壳体350上的至少一个输入按钮321。观看设备302还包括用于从用户接收滑动输入的输入板325。
用户可以使遮蔽部分330紧密地配合到用户的每只眼睛,并且因此,用户可以在没有来自外部光的干扰的情况下观看由从电子设备301提供的虚拟现实应用提供的图像。
电子设备301可以被观看设备302容纳,例如耦接到观看设备302。电子设备301可以有线或无线地连接到观看设备302。例如,尽管电子设备301可以基于USB连接到观看设备302,但是这仅是示例,对该连接并没有限制,只要通过该连接可以进行这两个设备301和302之间的数据发送/接收。
根据另一实施例,电子设备301可以简单地与观看设备302物理地耦接。
图3b示出了根据本公开实施例的电子设备的显示方法。
参考图3b,电子设备301在显示器360上显示左眼图像361和右眼图像362。左眼图像361包括第一对象363,右眼图像362包括第二对象364。第一对象363对应于左眼701,第二对象364对应于右眼702。
在图3b中,与左眼701和右眼702之间的距离相对应的瞳孔间距(IPD)可以是D。
左眼图像361和右眼图像362可以对应于用户的两只眼睛以向用户提供深度感。例如,左眼图像361和右眼图像362可以是用于虚拟现实服务的图像,并且可以是被配置为向虚拟现实服务的整个画面的一部分提供三维效果的图像。
电子设备301显示第一对象363和第二对象364,其中在第一对象363和第二对象364之间具有预定距离。用户观看在穿过左眼701和第一对象363的直线与穿过右眼702和第二对象364的直线的交叉处存在的对象图像367。例如,用户观看在与用户间隔L1的位置处存在的对象图像。
因此,电子设备301可以显示具有环形形状的第一对象363和第二对象364。
图3c是示出了根据本公开实施例的用户观看的画面的概念图。
参考图3c,用户观看包括环形形状的图像371的画面370。
图4a是示出了根据本公开实施例的用户佩戴HMT设备的透视图。
参考图4a,用户佩戴与电子设备301耦接的观看设备302,并且用户可以观看电子设备301的显示器上显示的图像。
如上所述,电子设备301可以在显示器的左部和右部显示左眼图像和右眼图像。左眼图像可以入射到用户的左眼上,右眼图像可以入射到用户的右眼上。例如,左眼图像和右眼图像可以通过两只眼睛而入射在用户的整个视域上。用户可以通过观看入射在两只眼睛上的图像来通过观看设备302接收虚拟现实服务。
由电子设备301执行的虚拟现实应用可以在显示器上显示双目图像。虚拟现实应用可以根据用户或观看设备302的运动(偏航、俯仰和/或滚动)来改变和显示双目图像。
观看设备302可以通过输入按钮321和输入板325中的至少一个从用户接收命令。例如,电子设备301可以从观看设备302获取聚焦控制命令或聚焦调整命令。此外,用户可以将聚焦控制命令或聚焦调整命令直接输入到电子设备301中。
例如,当用户沿输入板325的第一方向输入滑动手势时,电子设备301可以执行与该滑动手势相对应的控制命令。
图4b、图4c、图4d和图4e是示出了根据本公开实施例的电子设备的画面切换操作的概念图。
参考图4b,用户在佩戴着电子设备301时看向第一方向411。如上所述,电子设备301在第一虚拟画面421上显示为用户组合的左眼图像和右眼图像。第一虚拟画面421可以是与虚拟现实服务中配置的整个画面的一部分相对应的画面。
当用户将其头转动到右方向401上时,电子设备301感测右方向401上的旋转。如图4c至图4e所示,随着用户将其头从第一方向411转动到第二方向412、第三方向413和第四方向414,电子设备301感测旋转401并相应地改变显示。具体地,电子设备301根据第二方向412显示第二虚拟画面422,根据第三方向413显示第三虚拟画面423,根据第四方向414显示第四虚拟画面424。更具体地,电子设备301显示用于显示虚拟画面422至424中的每一个的不同的左眼图像和右眼图像。
第一虚拟画面421至第四虚拟画面424中的每一个可以是虚拟现实服务的整个画面的部分画面。
如图4b至图4e所示,第二虚拟画面422是相对于第一虚拟画面421的右侧布置的前景的画面,第三虚拟画面423是相对于第二虚拟画面422的右侧布置的前景的画面,第四虚拟画面424是相对于第三虚拟画面423的右侧布置的前景的画面。因此,随着用户将其头转动到右方向401上,用户可以依次观看相对于右侧布置的前景。
图5a是示出了根据本公开实施例的用于虚拟现实服务的整个画面的概念图。
参考图5a,整个画面被配置为三维并且包括对象501、502和503。第一对象501布置在第一位置(x1,y1,z1),第二对象502布置在第二位置(x2,y2,z2),第三对象503布置在第三位置(x3,y3,z3)。对象501、502和503是构成整个画面的图像,对其类型没有限制。
第一用户视域511可以配置在整个画面上。在图5a中,第一用户视域511包括第一对象501。因此,电子设备可以显示与第一用户视域511相对应的第一画面。
图5b示出了根据本公开实施例的电子设备。
参考图5b,电子设备301在显示器360上显示左眼图像521和右眼图像523。左眼图像521包括第一对象522,右眼图像523包括第二对象524。
图5c是示出了根据本公开实施例的用户观看的画面的概念图。
参考图5c,用户观看包括第一对象526的画面525。第一对象526是包括第一对象522的左眼图像521和包括第二对象524的右眼图像523的组合。可以通过将整个画面投射到与第一用户视域511相对应的平面上来产生第一画面525,如图5a所示。
在显示包括第一对象522的左眼图像521和包括第二对象524的右眼图像523时,电子设备301可以检测画面切换事件。画面切换事件可以是电子设备301的移动,例如旋转。例如,用户可以在佩戴着电子设备301时转动其头,如图4b至图4e所示。
图5d是示出了根据本公开实施例的用于虚拟现实服务的整个画面的概念图。
参考图5d,电子设备301将用户视域改变为第二用户视域512。第二用户视域512包括第二对象502和第三对象503。电子设备101根据检测到的电子设备301的旋转角度将用户视域从第一用户视域511改变为第二用户视域512。
与电子设备301的移动相对应的画面切换事件仅是示例,对输入方法没有限制,只要输入方法能够由电子设备301检测。
检测到的旋转角度可以包括球面坐标系的两个角度,它们彼此正交,例如,以z轴为旋转轴的xy平面上的第一角度(θ)和与xy平面形成的第二角度电子设备301可以以电子设备301的旋转角度来旋转第一用户视域511,以确定第二用户视域512。备选地,电子设备301可以通过使用电子设备301的旋转角度来确定画面旋转角度,并以画面旋转角度来旋转第一用户视域511以确定第二用户视域512。
电子设备301显示与第二用户视域512相对应的第二画面。
图5e示出了根据本公开实施例的电子设备。
参考图5e,电子设备301显示与第二画面512相对应的左眼图像531和右眼图像534。左眼图像531包括用于左眼的第二对象532和用于左眼的第三对象533,右眼图像534包括用于右眼的第二对象535和用于右眼的第三对象536。
图5f是示出了根据本公开实施例的用户观看的画面的概念图。
参考图5f,用户观看包括第二对象538和第三对象539的画面537。第二对象538和第三对象539分别是包括用于左眼的第二对象532和用于左眼的第三对象533的左眼图像531与包括用于右眼的第二对象535和用于右眼的第三对象536的右眼图像534的组合。
图5g是示出了根据本公开实施例的整个画面的概念图。
参考图5g,电子设备301将整个画面540配置在旋转角度坐标系中。配置在旋转角度坐标系中的整个画面540包括作为第一角度(θ)的水平轴和作为第二角度的垂直轴。电子设备301可以最初显示第一画面551,其是整个画面540的第一部分。第一画面551包括第一对象541。更具体地,电子设备301显示与第一画面551相对应的左眼图像和右眼图像。
电子设备301检测旋转并且响应于检测到的旋转来确定第二画面552。响应于电子设备101的旋转,电子设备301在整个画面540中将显示画面从第一画面551调整为第二画面552。第二画面552包括第二对象542和第三对象543。电子设备301显示与第二画面552相对应的左眼图像和右眼图像。
图6是示出了根据本公开实施例的显示画面的方法的流程图。
图7a和图7b是示出了根据本公开实施例的画面的概念图。
图8a和图8b是示出了根据本公开实施例的对象在整个画面上的位置的移动的概念图。
参考图6,在步骤610中,电子设备显示包括第一对象的第一画面。电子设备可以将第一对象配置为要跟踪的对象。要跟踪的对象可以是预设的,或者可以在电子设备中被指定。
在步骤620中,电子设备检测画面切换事件。例如,画面切换事件可以是电子设备的移动。电子设备可以响应于画面切换事件而从第一画面切换为第二画面。例如,电子设备可以根据电子设备的旋转,使第一画面在整个画面内旋转。
在步骤630中,电子设备确定第一对象是否包括在第二画面中。当第一对象未包括在第二画面中时,在步骤640中,电子设备在第二画面中显示第一对象的至少一部分。然而,当第一对象包括在第二画面中时,在步骤650中,电子设备显示第二画面。
例如,如图7a所示,电子设备可以根据画面切换事件切换并显示与整个画面的一部分相对应的显示画面。
响应于电子设备检测到向右旋转,电子设备依次将画面从图5a所示的第一画面511切换为图5d所示的第二画面512。因此,电子设备可以依次显示多个画面701至706。
更具体地,电子设备依次显示与多个画面701至706相对应的左眼图像和右眼图像。
画面701和画面702包括第一对象711。这对应于第一对象501包括在与用户的视角相对应的一部分中。
根据用户视域的旋转,第一对象501可以接触用户视域801的边界,如图8a所示。电子设备可以显示第一对象的一部分712。之后,电子设备可以显示仅包括第二对象713的画面705,并可以显示包括第二对象713和第三对象714的画面706。
电子设备也可以显示多个画面721至726,如图7b所示。更具体地,电子设备可以依次显示与多个画面721至726相对应的左眼图像和右眼图像。
如图7b所示,电子设备也可以在与无法在整个画面上观看第一对象501的视角相对应的画面724上显示第一对象的该部分712。例如,电子设备可以在第三画面上保持显示第一对象的该部分712。之后,电子设备可以显示包括第二对象713的画面725,并可以显示包括第二对象713和第三对象714的画面726。电子设备继续在画面725和画面726中的每一个上显示第一对象的该部分712。即,即使画面被切换,电子设备也像第一对象501被拖动一样进行显示。
仅显示第一对象的该部分712仅是示例,电子设备可以显示第一对象的整体,或显示可替代第一对象的另一对象。
备选地,电子设备可以改变第一对象的属性,诸如颜色或透明度,并显示改变后的第一对象。
此外,在用户视角之外的位置处显示第一对象仅是示例,电子设备可以在画面的预定位置处显示第一对象。
参考图8a和图8b,电子设备可以响应于画面切换事件将第一视角801改变为第二视角802。第一对象501可以接触第一视角801的边界。根据第一视角801,电子设备可以显示例如图7b的画面723。
电子设备可以根据第二视角802改变第一对象501的位置。例如,电子设备可以将第一对象501的位置从(x1,y1,z1)改变为(x4,y4,z4)。
电子设备可以根据电子设备的旋转来改变第一对象501的位置。电子设备可以在一个画面(如图7b的画面726)上的位置(x4,y4,z4)处显示第一对象501,在位置(x2,y2,z2)处显示第二对象502,并在位置(x3,y3,z3)处显示第三对象503。
当电子设备的旋转对应于时,电子设备可以将位置(x1,y1,z1)旋转以将该位置确定为(x4,y4,z4)。
图9是示出了根据本公开实施例的改变要跟踪的对象的位置的处理的流程图。
参考图9,在步骤910中,电子设备检测用于将用户视域从第一画面改变为第二画面的画面切换事件。例如,电子设备可以检测电子设备的移动。
在步骤920中,电子设备在第二画面的预设区域上显示第一对象。
例如,电子设备可以在如图10所示所有画面1001至1006的中心处显示第一对象711。
更具体地,电子设备在显示包括第一对象711的画面1001的同时检测画面切换事件。电子设备总是在预设位置处显示第一对象711,例如在中心或边缘,同时显示除第一对象711以外的其余部分,如画面1002至1006所示。即,电子设备显示第一对象711,就好像其在浮动一样。因此,用户可以总是看到要跟踪的对象。
当第一对象711的位置与另一对象的位置重叠时,电子设备可以重叠地显示第一对象711和该另一对象。
在第一对象711与另一对象重叠时,电子设备可以将第一对象711的位置移动到另一位置并显示移动后的第一对象711。
图11a和图11b是示出了根据本公开实施例的要跟踪的对象在整个画面上的移动的概念图。
参考图11a,电子设备可以根据第一用户视域1101在整个画面上显示图10的画面1001。电子设备可以检测画面检测事件,例如电子设备旋转了
电子设备可以如图11b所示根据检测到的旋转来旋转第一对象501的位置。当电子设备的旋转对应于时,电子设备可以将位置(x1,y1,z1)旋转以确定位置(x5,y5,z5)。即,电子设备可以将第一对象的位置旋转得和电子设备旋转的一样多。因此,电子设备可以根据第二用户视域1102显示图10的画面1006。
图12a是示出了根据本公开实施例的显示画面的方法的流程图。
参考图12a,在步骤1210中,电子设备识别与所显示的画面相对应的用户视域的边界。用户视域的边界可以是电子设备上显示的画面的边界。备选地,用户视域的边界可以配置在电子设备上显示的画面内的预定部分中。
在步骤1220中,电子设备确定作为要跟踪的对象的第一对象是否接触该边界。如上所述,电子设备可以根据画面切换事件改变用户视域,并且还改变用户视域的边界。电子设备可以确定第一对象是否接触改变后的边界。当第一对象接触边界时,之后可以不显示第一对象,使得电子设备可以确定第一对象是否接触边界。
当在步骤1220中第一对象未接触边界时,在步骤1230中,电子设备保持第一对象的位置。
当在步骤1220中第一对象接触边界时,在步骤1240中,电子设备根据边界的移动来改变第一对象的位置。电子设备可以检测电子设备的旋转,并基于检测到的旋转来改变第一对象的位置。即,即使画面被切换时,电子设备也可以显示画面,使得第一对象接触边界。因此,即使画面正被切换时,电子设备也可以继续显示第一对象,就好像第一对象从第一对象接触边界的时间点起被拖动一样。
图12b是示出了根据本公开实施例的显示画面的方法的流程图。
参考图12b,在步骤1250中,电子设备检测与所显示的画面相对应的用户视域的移动。电子设备可以检测画面切换事件,并响应于画面切换事件来检测用户视域在整个画面上的移动。例如,电子设备可以检测电子设备的旋转,并根据电子设备的旋转来旋转用户视域。
在步骤1260中,电子设备根据用户视域的移动来改变第一对象的位置,并显示改变后的第一对象。例如,电子设备可以通过根据用户视域的旋转来旋转第一对象,以改变第一对象的位置。因此,电子设备可以显示第一对象,就好像其在浮动一样。
图13是示出了根据本公开实施例的显示画面的方法的流程图。
参考图13,在步骤1310中,电子设备显示包括第一对象的第一画面。
在步骤1320中,电子设备检测第一方向上的画面切换事件。例如,电子设备可以检测从整个画面上的第一画面到沿第一方向布置的第二画面的画面切换事件。
在步骤1330中,电子设备显示包括第一对象的至少一部分的第二画面。根据本实施例,假设作为整个画面的一部分的第二画面实际上不包括第一对象。此外,第一对象可以是要跟踪的对象。因此,电子设备可以在第二画面上显示第一对象的至少该部分。例如,电子设备可以将第一对象的位置从(x1,y1,z1)改变为(x4,y4,z4),如图8b所示。
在步骤1340中,电子设备检测第二方向上的画面切换事件。例如,电子设备可以从整个画面上的第二画面检测从第二画面到沿第二方向布置的第三画面的画面切换事件。第三画面可以是整个画面上布置在第一画面和第二画面之间的画面。备选地,第三画面可以是第一画面。第二方向上的画面切换事件可以被称为向后画面切换事件。
在步骤1350中,电子设备显示包括第一对象的第三画面。
图14a和图14b是示出了根据本公开实施例的整个画面和显示画面的概念图。
参考图14a,电子设备可以根据向后画面切换事件在整个画面上旋转用户视域1401。例如,电子设备可以通过旋转图8b的用户视域802来确定用户视域1401。用户视域1401可以包括第一对象501和第二对象502。电子设备101可以在根据向后画面切换事件在整个画面上保持(x4,y4,z4)作为第一对象501的位置的同时旋转用户视域802。即,即使第一对象501接触用户视域的边界,如果检测到向后画面切换事件,则电子设备可以在整个画面上保持第一对象501的位置。
电子设备可以将与用户视域802相对应的画面726切换为与用户视域1401相对应的画面727,如图14b所示。与用户视域1401相对应的画面727包括第一对象715。如上所述,用户可以容易地观看要跟踪的对象,而无需将其头再次转回到初始位置,以便再次观看要跟踪的对象。
图15a至图15c示出了根据本公开实施例的与向后画面切换事件相对应的整个画面和显示画面。
参考图15a,电子设备可以根据向后画面切换事件在整个画面上旋转用户视域1401。例如,电子设备可以通过旋转图8b的用户视域802来确定用户视域1401。用户视域1401包括第一对象501和第二对象502。电子设备可以根据向后画面切换事件将第一对象501的位置从(x4,y4,z4)旋转到(x6,y6,z6)。即,当第一对象501接触用户视域的边界时,电子设备可以根据向后画面切换事件来改变第一对象501的位置。因此,即使画面被切换,电子设备也可以连续显示第一对象501,就好像它被向后拖动一样。
参考图15b,电子设备可以根据向后画面切换事件旋转用户视域1501,直到用户视域包括第一对象501的初始位置(x1,y1,z1)。电子设备可以存储第一对象501的初始位置。此外,当第一对象501向后移动并到达初始位置时,电子设备可以显示初始位置。
因此,如图15c所示,电子设备可以显示包括第一对象的一部分712、第二对象713和第三对象714的画面726。电子设备可以根据向后画面切换事件显示包括第二对象713的画面728,并且在这种情况下,还可以显示第一对象的一部分712。电子设备可以显示包括第一对象715的画面729。
图16是示出了根据本公开实施例的画面的概念图。
在图16中,假设第一对象712和第二对象713被配置为要跟踪的对象。即,图16示出了针对要跟踪的多个对象显示画面的方法。
参考图16,电子设备可以显示包括第一对象的一部分712、第二对象713和第三对象714的画面726。更具体地,电子设备可以显示与画面726相对应的左眼图像和右眼图像。例如,电子设备可以显示与图8b的用户视域802相对应的画面726。
如图8b所示,电子设备101显示包括布置在(x4,y4,z4)的第一对象501、布置在(x2,y2,z2)的第二对象502和布置在(x3,y3,z3)的第三对象503在内的画面。电子设备可以在旋转图8a的用户视域801的同时将第一对象在整个画面上的位置从(x1,y1,z1)移动到(x4,y4,z4)。根据整个画面上位置的改变,该对象可以固定地显示在电子设备上所显示的画面上的预定位置处。
电子设备可以检测用于沿右方向进一步旋转用户视域802的画面切换事件。电子设备101可以从第二对象接触用户视域的边界的时间点起显示包括第二对象的一部分1602的画面1601和1603。当第一对象的一部分712和第二对象的一部分1602的显示区域彼此重叠时,电子设备101可以重叠地显示这两个对象。
之后,电子设备可以检测向后画面切换事件。响应于向后画面切换事件,电子设备可以显示包括第一对象1611、第二对象1612和第三对象714的画面1604。当检测到向后画面切换事件时,电子设备可以当在整个画面上保持作为要跟踪的对象的第一对象1611和第二对象1612的位置的同时显示画面1604。
图17a和图17b是示出了根据本公开实施例的根据用户视域在z轴方向上的移动来显示要跟踪的对象的方法的概念图。
参考图17a,整个画面包括第一对象1703和第二对象1704。第一对象1703布置在(x7,y7,z7),第二对象1704布置在(x8,y8,z8)。画面切换事件可以是用于将用户视域从第一用户视域1701移动到第二用户视域1702的事件。
参考图17b,电子设备可以根据第一用户视域1701显示包括第一对象1711和第二对象1712的画面1710。电子设备可以根据整个画面上用户视域1701与第一对象1703和第二对象1704相距的距离,将第一对象1711显示为大于第二对象1712。
电子设备可以根据改变的第二用户视域1702显示包括第二对象1722的画面1720。画面1720内的第二对象1722可以被显示为大于画面1710内的第二对象1712。电子设备可以显示作为要跟踪的对象的第一对象的一部分1721。电子设备可以从第一对象1703接触用户视域的边界的时间点起显示第一对象的该部分1721。此外,电子设备可以从第一对象1703接触用户视域的边界的时间点起,在移动第一对象1703在整个画面上的位置的同时显示第一对象1703。
图18是示出了根据本公开实施例的显示画面的方法的流程图。
参考图18,在步骤1810中,电子设备显示包括第一对象的第一画面。
在步骤1820中,电子设备检测用于将画面从第一画面切换为第二画面的画面切换事件。
在步骤1830中,电子设备确定第一对象是否包括在第二画面中。
当第一对象未包括在第二画面中时,在步骤1840中,电子设备在第二画面上附加地显示第一对象的位置。
当第一对象包括在第二画面中时,在步骤1850中,电子设备显示第二画面。
图19和图20是示出了根据本公开实施例的显示要跟踪的对象的位置的方法的概念图。
参考图19,电子设备可以显示包括第二对象1901和第三对象1902的第二画面1900。要跟踪的对象可以不包括在第二画面1900内。通过箭头1911至1916,电子设备可以基于整个画面的第二画面1900显示要跟踪的对象的相对位置。当箭头1911至1916之一被指定时,电子设备可以显示包括要跟踪的对象的画面。
参考图20,电子设备可以显示包括第二对象2001和第三对象2002的第二画面2000。要跟踪的对象可以不包括在第二画面2000内。电子设备可以在整个画面上显示相应的迷你地图2010。可以在迷你地图2010上显示第二画面2011和要跟踪的对象2012的位置。当在迷你地图2010上指定了一个位置时,电子设备可以显示包括所指定位置的画面。具体地,当在迷你地图2010上指定了要跟踪的对象2012时,电子设备可以显示包括要跟踪的对象的画面。
图21a和图21b是示出了根据本公开实施例的电子设备的概念图。
参考图21a,电子设备2100,即眼镜型可穿戴电子设备,包括透明显示器2110。透明显示器2110允许来自外部的光穿过,并且用户可以观看电子设备2100之外的对象2101。用户可以在透明显示器2110的区域2111中观看外部对象2101。电子设备101可以拍摄外部对象2101,并通过分析拍摄的图像在透明显示器2110上显示附加信息对象2112。因此,电子设备2100可以提供对于外部对象的增强现实服务。
参考图21b,用户可以转动其头来观看外部对象2102。外部对象2101在图21b中可在用户视域之外,而用户在透明显示器2110的区域2121中观看外部对象2102。电子设备2100可以拍摄外部对象2102,并通过分析拍摄的图像在透明显示器2110上显示附加信息对象2122。附加地,电子设备2100可以在透明显示器2100上显示与外部对象2101相对应的附加信息对象的至少一部分2113。
图22a和图22b是示出了根据本公开实施例的通过电子设备显示画面的方法的概念图。
参考图22a,电子设备2250可以显示包括第一对象2201、第二对象2202和第三对象2203的第一菜单画面2200。在图22a中,假设第三对象2203是要跟踪的对象。
图22b示出了在二维平面中配置的整个画面。整个画面包括第一页面2230、第二页面2240和第三页面2250。第一页面2230包括第一对象2231、第二对象2232和第三对象2233。第二页面2240包括第四对象2241、第五对象2242和第六对象2243。第三页面2250包括第七对象2251、第八对象2252和第九对象2253。例如,第一对象2231至第九对象2253可以是用于执行应用的图标。
如图22a所示,用户可以输入向左轻拂手势2205。轻拂手势2205可以是画面切换事件,电子设备2250可以响应于画面切换事件将第一菜单画面2200切换为第二菜单画面2210。第二菜单画面2210可以对应于整个画面的第二页面2240。第二菜单画面2210包括第四对象2211、第五对象2212和第六对象2213。此外,电子设备2250可以在第二菜单画面2210上显示作为要跟踪的对象的第三对象2204。
之后,如图22a所示,用户可以输入另一向左轻拂手势2215。轻拂手势2215可以是画面切换事件,电子设备2250可以响应于画面切换事件将第二菜单画面2210切换为第三菜单画面2220。第三菜单画面2220对应于整个画面的第三页面2250。第三菜单画面2220包括第七对象2221、第八对象2222和第九对象2223。此外,电子设备2250继续在第三菜单画面2220上显示作为要跟踪的对象的第三对象2204。
图23是示出了根据本公开实施例的电子设备的框图。
参考图23,电子设备2301包括AP 2310、通信模块2320、订户识别模块(SIM)卡2324、存储器2330、传感器模块2340、输入设备2350、显示器2360、接口2370、音频模块2380、相机模块2391、电源管理模块2395、电池2396、指示器2397和电机2398。
AP 2310可以通过驱动操作系统或应用程序来控制与AP 2310相连的多个硬件或软件组件,并执行各种数据处理和计算。AP 2310可以通过例如系统级芯片(SoC)来实现。AP2310还可以包括图形处理单元(GPU)和/或图像信号处理器。备选地,AP 2310还可以包括图23所示的组件中的至少一部分,例如蜂窝模块2321。AP 2310可以将从至少一个其他组件(例如,非易失性存储器)接收的指令或数据加载在易失性存储器中,以处理所加载的指令或数据,并可以将各种类型的数据存储在非易失性存储器中。
通信模块2320可以具有与图1所示的通信模块170相同或相似的配置。
通信模块2320包括蜂窝模块2321、Wi-Fi模块2323、蓝牙(BT)模块2325、GPS模块2327、NFC模块2328和射频(RF)模块2329。
蜂窝模块2321可以通过例如通信网络提供语音呼叫、视频呼叫、文本消息服务或互联网服务。蜂窝模块2321可以使用订户识别模块(例如,SIM卡2324)来区分并认证通信网络内的电子设备。蜂窝模块2321可以执行可由AP 2310提供的功能中的至少一些。蜂窝模块2321可以包括CP。
Wi-Fi模块2323、BT模块2325、GPS模块2327和NFC模块2328可以包括用于处理经对应模块发送/接收的数据的处理器。蜂窝模块2321、Wi-Fi模块2323、BT模块2325、GPS模块2327和NFC模块2328中的至少一些(两个或更多个)可以被包括在一个集成芯片(IC)中或IC封装中。
RF模块2329可以发送/接收RF信号,例如通信信号。RF模块2329可以包括收发机、功率放大器模块(PAM)、频率滤波器、低噪放大器(LNA)和/或天线。蜂窝模块2321、Wi-Fi模块2322、蓝牙模块2325、GPS模块2327和NFC模块2328中的至少一个可以通过单独的RF模块来发送/接收RF信号。
SIM卡2324可以包括订户识别模块和/或嵌入式SIM,并包含独特标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动订户标识(IMSI))。
存储器2330包括内部存储器2332或外部存储器2334。内部存储器2332可以包括以下至少一项:易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)以及非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、闪存(例如,NAND闪存或NOR闪存)、硬盘驱动器或固态驱动器(SSD))。
外部存储器2334还可以包括闪存驱动器、紧凑型闪存(CF)、安全数字(SD)、微型安全数字(Micro-SD)、迷你型安全数字(Mini-SD)、极速数字(xD)、记忆棒等。外部存储器2334可以通过各种接口与电子设备2301功能连接和/或物理连接。
传感器模块2340可以测量物理量或检测电子设备2301的操作状态,并且可以将测量的或检测的信息转换为电信号。传感器模块2340包括手势传感器2340A、陀螺仪传感器2340B、气压传感器2340C、磁传感器2340D、加速度传感器2340E、握持传感器2340F、接近传感器2340G、颜色传感器2340H(例如,RGB传感器)、生物传感器2340I、温度/湿度传感器2340J、照度传感器2340K和紫外(UV)传感器2340M。附加地或备选地,传感器模块2340可以包括电子鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外线(IR)传感器、虹膜传感器和/或指纹传感器。
传感器模块2340还可以包括用于控制其中包括的至少一个传感器的控制电路。
电子设备2301还可以包括配置为控制传感器模块2340的处理器,作为AP 2310的一部分或独立于AP 2310,并可以在AP 2310处于睡眠状态时控制传感器模块2340。
输入设备2350包括触摸面板2352、(数字)笔传感器2354、按键2356和超声输入设备2358。触摸面板2352可以使用电容型、电阻型、红外型和超声型中的至少一种。触摸面板2352还可以包括控制电路。触摸面板2352还可以包括触觉层,并向用户提供触觉反应。
(数字)笔传感器2354可以包括作为触摸面板的一部分的识别片或分离的识别片。按键2356可以包括物理按钮、光学按键和/或键区。
超声输入单元2358可以通过产生超声波信号的输入设备输入数据,并且电子设备2301可以通过用麦克风2388检测声波来识别数据。
显示器2360包括面板2362、全息设备2364和投影仪2366。面板2362可以是柔性的、透明的或可穿戴的。面板2362还可以配置为与触摸面板2352集成为单个模块。
全息设备2364可以通过使用光的干涉在空中示出透视图像。
投影仪2366可以将光投影到屏幕上以便显示图像。例如,屏幕可以位于电子设备2301的内部或外部。
显示器2360还可包括控制电路,所述控制电路用于控制面板2362、全息设备2364或投影仪2366。
接口2370包括HDMI 2372、USB 2374、光学接口2376和D-超小型(D-sub)2378。附加地或备选地,接口2370可以包括移动高清链路(MHL)接口、安全数字(SD)卡/多媒体卡(MMC)接口或红外数据协会(IrDA)标准接口。
音频模块2380可以双向地转换声信号和电信号。音频模块2380可以处理通过例如扬声器2382、接收机2384、耳机2386和麦克风2388输入或输出的声音信息。
相机模块2391是可以拍摄静态图像和动态图像的设备。相机模块291可以包括一个或多个图像传感器(例如,前置传感器或后置传感器)、镜头、图像信号处理器(ISP)或闪光灯(例如,LED或氙灯)。
电源管理模块2395可以管理电子设备2301的电力。电源管理模块2395可以包括电源管理集成电路(PMIC)、充电器IC或电池量表(battery gauge)。PMIC可以具有有线和/或无线充电方案。无线充电方法的示例可以包括磁共振方法、磁感应方法、电磁波方法等。还可以包括用于无线充电的附加电路(例如,线圈环、谐振电路、整流器等)。电池量表可以测量电池2396的剩余量、充电电压和电流或温度。电池2396可以包括可再充电电池和/或太阳能电池。
指示器2397可以指示电子设备2301或者其一部分(例如,AP 2310)的具体状态,例如引导状态、消息状态、充电状态等。
电机2398可以将电信号转换为机械振动,并可以产生振动或触觉效果。尽管未示出,但是电子设备2301可以包括用于支持移动TV的处理设备(例如,GPU)。用于支持移动TV的处理设备可以根据数字多媒体广播(DMB)、数字视频广播(DVB)、媒体流等的标准来处理媒体数据。
根据本公开的电子设备的每个元件可以由一个或多个元件来实现,且相应元件的名称可以根据电子设备的类型而变化。在各种实施例中,电子设备可以包括上述元件中的至少一个。电子设备可以省略上述元件中的一些,或电子设备还可以包括附加元件。此外,根据本公开各种实施例的电子设备的元件中的一些可以被组合以形成单个实体,且由此可以等同地执行相应元件在组合之前的功能。
本文所使用的术语“模块”可以例如意味着包括硬件、软件和固件之一或者其中两个或更多个的组合在内的单元。“模块”可以与例如术语“单元”、“逻辑”、“逻辑块”、“组件”或“电路”互换使用。“模块”可以是集成组件的最小单元或其一部分。“模块”可以是执行一个或多个功能的最小单元或其一部分。“模块”可以机械或电学地实现。例如,根据本公开的“模块”可以包括以下至少一项:已知的或将来研发的专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和用于执行操作的可编程逻辑器件。
根据各种实施例,可以通过以编程模块形式存储在计算机可读存储介质中的命令,来实现根据本公开的设备的至少一部分(例如,其模块或功能)或方法的至少一部分(例如,操作)。当一个或多个处理器(例如,处理器120)执行命令时,该一个或多个处理器可以执行对应于该命令的功能。例如,计算机可读存储介质可以是存储器130。
计算机可读记录介质可以包括硬盘、软盘、磁介质(例如,磁带)、光学介质(例如,紧凑盘ROM(CD-ROM)和DVD)、磁光介质(例如,光磁软盘)、硬件设备(例如,ROM、随机存取存储器(RAM)、闪存)等。
此外,程序指令可以包括能够在计算机中使用译码器执行的高级语言代码以及由编译器生成的机器代码。上述硬件设备可以被配置为作为一个或多个软件模块进行操作以执行本发明的操作,反之亦然。
根据本公开的编程模块可以包括上述元件中的一个或多个,或还可以包括其他附加元件,或可以省略上述元件中的一些。由根据本公开各种实施例的模块、编程模块或其他组成元件执行的操作可以被依次地、并行地、重复地或启发式地执行。此外,一些操作可以根据另一顺序来执行或者可以省略,或者可以增加其他操作。
根据本公开的各种实施例,提供了一种其中存储有命令的存储介质。所述命令被配置为当由一个或多个处理器执行时允许所述一个或多个处理器执行一个或多个操作。所述一个或多个操作可以包括:显示包括第一对象的第一画面;检测画面切换事件以将电子设备的画面从第一画面切换为第二画面;以及当第二画面不包括第一对象时,在第二画面上显示第一对象的至少一部分。
尽管参考本公开的特定实施例具体示出并描述了本公开,但是本领域技术人员将理解,在不脱离由所附权利要求及其等同物定义的本公开的精神和范围的前提下,可以在其中进行形式和细节上的多种改变。

Claims (15)

1.一种通过电子设备显示画面的方法,所述方法包括:
显示包括第一对象的第一画面;
检测画面切换事件以从所显示的第一画面切换为第二画面;以及
当第二画面不包括第一对象时,在第二画面上显示第一对象的至少一部分。
2.根据权利要求1所述的方法,其中所述画面切换事件对应于电子设备的移动。
3.根据权利要求2所述的方法,其中所述第一画面对应于预设整个画面的第一部分,所述第二画面对应于所述预设整个画面的第二部分,以及
其中在第二画面上显示第一对象的至少一部分包括:基于所述移动的程度和所述移动的方向中的至少一个来显示第二画面。
4.根据权利要求1所述的方法,其中在第二画面上显示第一对象的至少一部分包括:将第一对象的至少该部分显示为接触第二画面的边界。
5.根据权利要求4所述的方法,其中第一对象的至少该部分在与所述画面切换事件相对应的画面切换期间从第一对象接触第二画面的边界的时间点起接触第二画面的边界。
6.根据权利要求4所述的方法,还包括:
检测向后画面切换事件,所述向后画面切换事件用于沿与所述画面切换事件相对应的画面切换的方向相反的方向进行画面切换;以及
根据所述向后画面切换事件显示第一对象。
7.根据权利要求4所述的方法,其中在第二画面上显示第一对象的至少一部分包括:根据所述画面切换事件改变第一对象在预设整个画面上的位置,并在改变的位置上显示第一对象。
8.根据权利要求1所述的方法,其中在第二画面上显示第一对象的至少一部分包括:在第二画面的预设位置上显示第一对象。
9.根据权利要求1所述的方法,其中第一画面包括左眼图像和右眼图像以提供虚拟现实服务。
10.一种电子设备,包括:
显示器,显示包括第一对象的第一画面;以及
处理器,检测画面切换事件以将显示器从显示第一画面切换为显示第二画面,并且当第二画面不包括第一对象时,控制所述显示器在第二画面上显示第一对象的至少一部分。
11.根据权利要求10所述的电子设备,还包括:感测模块,感测所述电子设备的移动,
其中所述处理器基于感测的所述电子设备的移动来检测所述画面切换事件。
12.根据权利要求11所述的电子设备,其中所述第一画面对应于预设整个画面的第一部分,所述第二画面对应于所述预设整个画面的第二部分,以及
其中所述处理器控制所述显示器基于所述移动的程度和所述移动的方向中的至少一个来显示第二画面。
13.根据权利要求10所述的电子设备,其中所述处理器控制所述显示器将第一对象的至少该部分显示为接触第二画面的边界。
14.根据权利要求13所述的电子设备,其中第一对象的至少该部分在与所述画面切换事件相对应的画面切换期间从第一对象接触第二画面的边界的时间点起接触第二画面的边界。
15.根据权利要求13所述的电子设备,其中所述处理器检测向后画面切换事件,向后画面切换事件用于沿与所述画面切换事件相对应的画面切换的方向相反的方向进行画面切换,并且控制所述显示器根据所述向后画面切换事件来显示第一对象。
CN201680008645.7A 2015-02-05 2016-02-02 用于显示画面的方法和电子设备 Pending CN107209572A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020150018047A KR20160096422A (ko) 2015-02-05 2015-02-05 화면 표시 방법 및 전자 장치
KR10-2015-0018047 2015-02-05
PCT/KR2016/001123 WO2016126079A1 (en) 2015-02-05 2016-02-02 Method and electronic device for displaying screen

Publications (1)

Publication Number Publication Date
CN107209572A true CN107209572A (zh) 2017-09-26

Family

ID=55486457

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680008645.7A Pending CN107209572A (zh) 2015-02-05 2016-02-02 用于显示画面的方法和电子设备

Country Status (5)

Country Link
US (1) US20160232879A1 (zh)
EP (2) EP3561763A1 (zh)
KR (1) KR20160096422A (zh)
CN (1) CN107209572A (zh)
WO (1) WO2016126079A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969658A (zh) * 2018-09-28 2020-04-07 苹果公司 利用来自多个设备的图像进行定位和标测

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420075B2 (en) 2014-07-16 2016-08-16 DODOcase, Inc. Virtual reality viewer and input mechanism
JP6867104B2 (ja) * 2016-01-20 2021-04-28 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
US20170255229A1 (en) * 2016-03-04 2017-09-07 DODOcase, Inc. Virtual reality viewer
KR102632795B1 (ko) * 2016-09-21 2024-02-02 삼성전자주식회사 컨텐츠와 연관된 네비게이터 표시 방법 및 이를 구현한 전자 장치
US10168798B2 (en) * 2016-09-29 2019-01-01 Tower Spring Global Limited Head mounted display
CN106445157B (zh) * 2016-09-30 2020-08-07 珠海市魅族科技有限公司 一种画面显示方向调整的方法以及装置
JP2018107603A (ja) * 2016-12-26 2018-07-05 オリンパス株式会社 センサ情報取得装置、センサ情報取得方法、センサ情報取得プログラム及び医療器具
KR102403719B1 (ko) * 2017-02-22 2022-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법
BR112019024498A2 (pt) * 2017-07-17 2020-06-23 Google Llc Métodos, sistemas e mídias para apresentar pré-visualizações de conteúdo de mídia
KR102374404B1 (ko) * 2017-07-25 2022-03-15 삼성전자주식회사 콘텐트를 제공하기 위한 디바이스 및 방법
KR102374408B1 (ko) 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
US11831855B2 (en) * 2018-06-22 2023-11-28 Lg Electronics Inc. Method for transmitting 360-degree video, method for providing a user interface for 360-degree video, apparatus for transmitting 360-degree video, and apparatus for providing a user interface for 360-degree video
US11043194B2 (en) * 2019-02-27 2021-06-22 Nintendo Co., Ltd. Image display system, storage medium having stored therein image display program, image display method, and display device
JP7492904B2 (ja) 2020-04-24 2024-05-30 株式会社日立製作所 表示装置、表示システムおよび表示方法
CN111708504A (zh) * 2020-06-16 2020-09-25 成都忆光年文化传播有限公司 一种扩展屏幕的显示方法
CN112087576B (zh) * 2020-08-28 2021-12-07 上海商米科技集团股份有限公司 基于android平台摄像头数据流扩展方法及电子设备
JP7476128B2 (ja) 2021-03-11 2024-04-30 株式会社日立製作所 表示システムおよび表示装置
EP4310108A1 (en) 2021-03-18 2024-01-24 Nippon Shokubai Co., Ltd. Method for producing water absorbent resin
WO2022197991A1 (en) 2021-03-18 2022-09-22 The Procter & Gamble Company Method for producing absorbent articles comprising water-absorbing resin

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075343A1 (en) * 2010-09-25 2012-03-29 Teledyne Scientific & Imaging, Llc Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US20130117707A1 (en) * 2011-11-08 2013-05-09 Google Inc. Velocity-Based Triggering
CN103180893A (zh) * 2011-08-23 2013-06-26 索尼公司 用于提供三维用户界面的方法和系统
CN103250123A (zh) * 2010-12-07 2013-08-14 三星电子株式会社 用于显示列表的方法和设备
CN103945052A (zh) * 2013-01-21 2014-07-23 Lg电子株式会社 移动终端及其控制方法
CN103984096A (zh) * 2013-02-13 2014-08-13 精工爱普生株式会社 图像显示装置以及图像显示装置的显示控制方法
US20140375683A1 (en) * 2013-06-25 2014-12-25 Thomas George Salter Indicating out-of-view augmented reality images
US20150007102A1 (en) * 2013-06-28 2015-01-01 Samsung Electronics Co., Ltd. Method of displaying page and electronic device implementing the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20130139082A1 (en) * 2011-11-30 2013-05-30 Google Inc. Graphical Interface Having Adjustable Borders
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
US9041741B2 (en) * 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075343A1 (en) * 2010-09-25 2012-03-29 Teledyne Scientific & Imaging, Llc Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
CN103250123A (zh) * 2010-12-07 2013-08-14 三星电子株式会社 用于显示列表的方法和设备
CN103180893A (zh) * 2011-08-23 2013-06-26 索尼公司 用于提供三维用户界面的方法和系统
US20130117707A1 (en) * 2011-11-08 2013-05-09 Google Inc. Velocity-Based Triggering
CN103945052A (zh) * 2013-01-21 2014-07-23 Lg电子株式会社 移动终端及其控制方法
CN103984096A (zh) * 2013-02-13 2014-08-13 精工爱普生株式会社 图像显示装置以及图像显示装置的显示控制方法
US20140375683A1 (en) * 2013-06-25 2014-12-25 Thomas George Salter Indicating out-of-view augmented reality images
US20150007102A1 (en) * 2013-06-28 2015-01-01 Samsung Electronics Co., Ltd. Method of displaying page and electronic device implementing the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STEVEN FEINER 等: "A touring machine: prototyping 3D mobile augmented reality systems for exploring the urban environment", 《DIGEST OF PAPERS. FIRST INTERNATIONAL SYMPOSIUM ON WEARABLE COMPUTERS》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969658A (zh) * 2018-09-28 2020-04-07 苹果公司 利用来自多个设备的图像进行定位和标测
CN110969658B (zh) * 2018-09-28 2024-03-29 苹果公司 利用来自多个设备的图像进行定位和标测

Also Published As

Publication number Publication date
KR20160096422A (ko) 2016-08-16
WO2016126079A1 (en) 2016-08-11
EP3561763A1 (en) 2019-10-30
US20160232879A1 (en) 2016-08-11
EP3054415A1 (en) 2016-08-10

Similar Documents

Publication Publication Date Title
CN107209572A (zh) 用于显示画面的方法和电子设备
KR102613731B1 (ko) 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법
EP3586316B1 (en) Method and apparatus for providing augmented reality function in electronic device
CN107959773A (zh) 拍摄图像的电子装置
KR102660859B1 (ko) 전자 장치, 웨어러블 장치 및 전자 장치의 표시 객체 제어 방법
US20160063767A1 (en) Method for providing visual reality service and apparatus for the same
CN109643187B (zh) 包括多个触摸显示器的电子装置和用于改变其状态的方法
KR20180095409A (ko) 전자 장치 및 전자 장치의 화면 표시 방법
KR20170031525A (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
KR20170085344A (ko) 전자 장치
KR20160059765A (ko) 전자 장치의 디스플레이 방법 및 장치
KR20170109297A (ko) 전방위 영상을 제공하는 전자 장치 및 방법
KR20160121145A (ko) 카메라 설정 방법 및 장치
KR20160063812A (ko) 화면 구성 방법, 전자 장치 및 저장 매체
CN108429906A (zh) 电子设备和用于在电子设备中发送和接收图像数据的方法
US11670022B2 (en) Electronic device and method for displaying and generating panoramic image
EP3364646A1 (en) Electronic device and method for displaying 360-degree image in the electronic device
KR20170055213A (ko) 비행이 가능한 전자 장치를 이용한 촬영 방법 및 장치
KR102632270B1 (ko) 전자 장치 및 파노라마 영상 표시와 생성 방법
KR20170052976A (ko) 모션을 수행하는 전자 장치 및 그 제어 방법
CN109804618A (zh) 用于显示图像的电子设备和计算机可读记录介质
EP3447673A1 (en) Electronic device and control method therefor
CN109845251B (zh) 用于显示图像的电子设备和方法
EP3327551A1 (en) Electronic device for displaying image and method for controlling the same
KR102544779B1 (ko) 움직임 정보 생성 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170926