CN111656306A - 根据与控制器接触的身体部分不同地显示图形对象的方法和电子装置 - Google Patents

根据与控制器接触的身体部分不同地显示图形对象的方法和电子装置 Download PDF

Info

Publication number
CN111656306A
CN111656306A CN201980010981.9A CN201980010981A CN111656306A CN 111656306 A CN111656306 A CN 111656306A CN 201980010981 A CN201980010981 A CN 201980010981A CN 111656306 A CN111656306 A CN 111656306A
Authority
CN
China
Prior art keywords
controller
control signal
body part
electronic device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980010981.9A
Other languages
English (en)
Other versions
CN111656306B (zh
Inventor
金锺润
赵容辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN111656306A publication Critical patent/CN111656306A/zh
Application granted granted Critical
Publication of CN111656306B publication Critical patent/CN111656306B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种电子装置包括显示器、通信电路和处理器,其中,处理器被配置为通过通信电路从与第一身体部分接触的控制器获取第一控制信号,第一控制信号包括指示控制器与第一身体部分接触的信息。处理器还用于基于第一控制信号通过显示器显示第一身体部分相应的第一图形对象,并且通过通信电路从与第二身体部分接触的控制器获取第二控制信号。第二控制信号包括指示控制器处于第二身体部分的信息。处理器还用于基于第二控制信号通过显示器显示与第二身体部分相应的第二图形对象。

Description

根据与控制器接触的身体部分不同地显示图形对象的方法和 电子装置
技术领域
各种实施例涉及至少部分地基于控制器所接触的身体部分来控制与控制器相应的图形对象在电子装置中的显示的电子装置、以及涉及控制对象在电子装置中的显示的方法。
背景技术
头戴式显示装置被戴在用户的头上,并且通过装置的显示器实现视觉虚拟现实来显示立体图像。
单独的控制器可被用于通过在头戴式显示装置中实现视觉虚拟现实来显示立体图像的方法;并且在头戴式显示装置中,可通过装置的显示器显示与能够检测用户的操作的控制器相应的虚拟对象。
由用户握持并且根据用户的移动而被改变的控制器可将移动信息发送到头戴式显示装置,并且头戴式显示装置可通过装置的显示器改变并显示虚拟对象以与控制器的移动相应。
技术问题
当使用根据本公开的各种实施例的控制器时,控制器被划分为左手模式和右手模式,使得控制器可用于适合用户的左手习惯或右手习惯。
为了在头戴式显示装置上显示与控制器相应的对象,用户需要预先通过多个选择步骤设置将对象显示为左手模式对象还是右手模式对象。
发明内容
技术方案
根据各种实施例,一种电子装置可包括:显示器;通信电路;以及处理器,其中,处理器被配置为:通过通信电路从与第一身体部分接触的控制器获取第一控制信号,其中,第一控制信号包括指示控制器与第一身体部分接触的信息;至少部分地基于第一控制信号通过显示器显示与第一身体部分相应的第一图形对象;通过通信电路从与第二身体部分接触的控制器获取第二控制信号,其中,第二控制信号包括指示控制器与第二身体部分接触的信息;并且至少部分地基于第二控制信号通过显示器显示与第二身体部分相应的第二图形对象。
根据各种实施例,一种控制显示在电子装置中的对象的方法可包括:通过包括在电子装置中的通信电路从与第一身体部分接触的控制器获取包括指示控制器与第一身体部分接触的信息的第一控制信号;至少部分地基于第一控制信号,通过显示器显示与第一身体部分相应的第一图形对象以及与第一图形对象相关联的相应于控制器的第三图形对象;通过通信电路从与第二身体部分接触的控制器获取包括指示控制器与第二身体部分接触的信息的第二控制信号;并且至少部分地基于第二控制信号,通过显示器显示与第二身体部分相应的第二图形对象以及与第二图形对象相关联的第三图形对象。
根据各种实施例,一种电子装置可包括:传感器单元;通信电路;以及处理器,其中,处理器被配置为:基于与第一身体部分接触的电子装置从传感器单元获取第一控制信号;通过通信电路将第一控制信号发送到另一电子装置,以使所述另一电子装置基于第一控制信号显示与第一身体部分相应的第一图形对象;基于与第二身体部分接触的电子装置从传感器单元获取第二控制信号;以及通过通信电路将第二控制信号发送到所述另一电子装置,以使所述另一电子装置基于第二控制信号显示与第二身体部分相应的第二图形对象。
在进行下面的详细描述之前,阐述贯穿本专利文档使用的某些词语和短语的定义可能是有利的:术语“包括”和“包含”及其派生词意指包括而不限于;术语“或”是包括性的,意指和/或;短语“与……相关联”和“与其相关联”及其派生词可意指包括、被包括在……内、与……互连、包含、被包含在……内、连接到或与……连接、耦合到或与……耦合、可与……通信、与……协作、交错、并置、接近于、绑定到或与……绑定、具有、具有……的属性等;并且术语“控制器”意指控制至少一个操作的任何装置、系统或其部分,这样的装置可以以硬件、固件或软件或硬件、固件和软件中的至少两个的一些组合来实现。应当注意的是,与任何特定控制器相关联的功能可以是集中式的或分布式的,无论是本地的还是远程的。
此外,下面描述的各种功能可由一个或更多个计算机程序实现或支持,所述一个或更多个计算机程序中的每一个计算机程序由计算机可读程序代码形成并且实现在计算机可读介质中。术语“应用”和“程序”是指一个或更多个计算机程序、软件部件、指令集、过程、函数、对象、类、实例、相关数据或其适于在合适的计算机可读程序代码中实现的部分。短语“计算机可读程序代码”包括任何类型的计算机代码,包括源代码、目标代码和可执行代码。短语“计算机可读介质”包括能够由计算机访问的任何类型的介质,诸如只读存储器(ROM)、随机存取存储器(RAM)、硬盘驱动器、压缩盘(CD)、数字视频盘(DVD)或任何其他类型的存储器。“非暂时性”计算机可读介质不包括传输暂时性电信号或其它信号的有线、无线、光学或其它通信链路。非暂时性计算机可读介质包括数据可被永久存储的介质以及数据可被存储并且稍后被覆写的介质,诸如可重写光盘或可擦除存储器装置。
本专利文档通篇提供了某些词语和短语的定义,本领域普通技术人员应当理解,在许多(如果不是大多数)情况下,这样的定义适用于这样定义的词语和短语的先前以及将来的使用。
发明的有益效果
在各种实施例中,可根据用户相对于控制器的握持状态来显示与控制器相应的对象,使得可自然地显示与控制器相应的对象的左/右切换,并且可使得由控制器的左/右切换操作引起的不便最小化,从而在不阻碍沉浸在电子装置(例如,头戴式显示装置)中的虚拟现实情况下保持用户体验。
在控制器制造方面,可输出与适合于用户的左手/右手握持的控制器相应的对象,使得可制造相同类型的控制器,而不需要单独制造左手控制器和右手控制器。
可根据用户的握持状态自然地执行左/右切换,使得即使当生成虚拟现实(VR)内容时,也可更自由地生成VR内容,而不限制根据左/右切换生成单独的场景,并且使得即使仅有用一个控制器,也可播放基于双手存在而生成的现有内容。
附图说明
为了更完整地理解本公开及其优点,现在参考结合附图进行的以下描述,其中,相同的附图标记表示相同的部件:
图1以框图格式示出根据各种实施例的网络环境内的电子装置;
图2示出根据各种实施例的对象显示控制系统200的方面;
图3以框图格式示出根据各种实施例的电子装置;
图4示出根据各种实施例的控制器的配置;
图5A和图5B以及图6至图7示出根据各种实施例的控制器的传感器单元的部件的布置;
图8示出根据各种实施例的控制显示在电子装置中的对象的方面;
图9A和9B示出根据各种实施例的控制显示在电子装置中的对象的方面;
图10A和10B示出根据各种实施例的在电子装置中识别对象的尺寸的方面;
图11以流程图格式示出根据各种实施例的控制显示在电子装置中的对象的方法的操作;
图12以流程图格式示出根据各种实施例的控制显示在电子装置中的对象的方法的操作;
图13以流程图格式示出根据各种实施例的控制显示在电子装置中的对象的方法的操作;以及
图14以流程图格式示出根据各种实施例的在控制器中发送控制信号的方法的操作。
具体实施方式
下面讨论的图1至图14以及用于描述本专利文档中的本公开的原理的各种实施例仅作为说明,并且不应以任何方式被解释为限制本公开的范围。本领域技术人员将理解,本公开的原理可在任何适当布置的系统或装置中实现。
图1是示出根据各种实施例的网络环境100中的电子装置101的框图。参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入装置150、声音输出装置155、显示装置160、音频模块170、传感器模块176、接口177、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略所述部件中的至少一个(例如,显示装置160或相机模块180),或者可将一个或更多个其它部件添加到电子装置101中。在一些实施例中,可将所述部件中的一些部件实现为单个集成电路。例如,可将传感器模块176(例如,指纹传感器、虹膜传感器、或照度传感器)实现为嵌入在显示装置160(例如,显示器)中。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据加载到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))以及与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。另外地或者可选择地,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为具体用于指定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123(而非主处理器121)可控制与电子装置101的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入装置150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它部件(例如,处理器120)使用的命令或数据。输入装置150可包括例如麦克风、鼠标或键盘。
声音输出装置155可将声音信号输出到电子装置101的外部。声音输出装置155可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的,接收器可用于呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示装置160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示装置160可包括被适配为检测触摸的触摸电路或被适配为测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块170可将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入装置150获得声音,或者经由声音输出装置155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由所述连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据一个实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙TM、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如蜂窝网络、互联网、或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括一个或更多个天线,并且因此,可由例如,通信模块190(例如,无线通信模块192)选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102和电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、104或108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
图2示出根据各种实施例的对象显示控制系统200的方面。参照图2的非限制性示例,对象显示控制系统200可包括电子装置210(例如,图1的电子装置101)和控制器220(例如,图1的电子装置102)。
电子装置210可至少部分地基于从与特定身体部分接触的控制器220接收的信号(例如,控制信号),通过显示器211显示与控制器220相应的图形对象221a或221b,以便与特定身体部分相应。根据各种实施例,信号(例如,控制信号)可包括从控制器220的传感器模块(例如,图4的传感器单元476)获取的传感器数据。
根据一些实施方案,电子装置210可包括可被佩戴在用户头部上的头戴式显示装置。
根据某些实施例,电子装置210可至少部分地基于从与第一身体部分(例如,左手)接触的控制器220接收的第一控制信号,通过显示器211显示与控制器220相应的图形对象221a或221b,以便与第一身体部分(例如,左手)相应。
根据各种实施例,电子装置210可至少部分地基于从与第二身体部分(例如,右手)接触的控制器220接收的第二控制信号,通过显示器211显示与控制器220相应的图形对象221a或221b,以便与第二身体部分(例如,右手)相应。
控制器220可检测特定的接触的身体部分,并且可将至少部分地基于特定的检测到的身体部分获得的控制信号发送到电子装置210。
根据一些实施例,控制器220可使用传感器单元来检测控制器220所接触的特定身体部分。
图3以框图格式示出根据各种实施例的电子装置301(例如,图1的电子装置101、电子装置102或电子装置104或图2的电子装置210)。
参照图3的非限制性示例,电子装置301可包括第一处理器320、存储器330、虚拟空间控制模块350、显示器360和第一通信电路390。
根据某些实施例,第一处理器320可至少部分地基于与特定身体部分(例如,左手或右手)接触的控制器(例如,图2的控制器220)接收的控制信号来识别控制器所接触的特定身体部分,并且可通过显示器360(例如,图1的显示器160或图2的显示器211)显示与特定身体部分相应的图形对象。
根据某些实施例,当通过第一通信电路390从与第一身体部分(例如,左手)接触的控制器(例如,图2的控制器220)接收到第一控制信号时,第一处理器320可至少部分地基于第一控制信号,通过显示器360显示与第一身体部分相应的第一图形对象,并且第一图形对象可以是指示控制器(例如,图2的控制器220)的对象。
根据各种实施例,第一控制信号可包括指示与控制器(例如,图2的控制器220)接触的第一身体部分的信息(例如,基于传感器数据的握持模式信息)。
根据一些实施例,当通过第一通信电路390从与第二身体部分(例如,右手)接触的控制器接收到第二控制信号时,第一处理器320可至少部分地基于第二控制信号,通过显示器360显示第二图形对象以与第二身体部分的位置相应,并且第二图形对象可以是指示控制器的对象。
根据某些实施例,第二控制信号可包括指示与控制器(例如,图2的控制器220)接触的第二身体部分的信息(例如,握持模式信息)。
根据各种实施例,当通过第一通信电路390从控制器(例如,图2的控制器220)接收到指示电源接通的信号时,第一处理器320可在显示器360的中心位置处显示与控制器相应的图形对象。当通过第一通信电路390从控制器接收到第一控制信号时,第一处理器320可基于第一控制信号检测与第一身体部分(例如,左手)接触的控制器的位置信息。第一处理器320可基于与第一身体部分(例如,左手)接触的控制器的位置信息,将与控制器相应的图形对象改变为与第一身体部分(例如,左手)的位置相应并与该图形对象相关联的第一图形对象。当通过第一通信电路390从控制器接收到第二控制信号时,第一处理器320可基于第二控制信号来检测与第二身体部分(例如,右手)接触的控制器的位置信息。第一处理器320可基于与第二身体部分(例如,右手)接触的控制器的位置信息,将与控制器相应的图形对象改变为与第二身体部分(例如,右手)的位置相应并与该图形对象相关联的第二图形对象。
根据一些实施例,在从控制器(例如,图2的控制器220)接收到指示电源接通的信号之前,第一处理器320可不在显示器360上显示与控制器相应的图形对象,可显示指示控制器被激活之前的状态的特定图形对象,或者可改变与控制器相应的图形对象的显示透明度。
根据某些实施例,根据第一控制信号显示的第一图形对象可以是用于第一身体部分模式(例如,左手模式)的图形对象,并且可包括指示当控制器(例如,图2的控制器220)与第一身体部分(例如,左手)接触时可显示的控制器的形状的图形对象。根据第二控制信号显示的第二图形对象可以是用于第二身体部分模式(例如,右手模式)的图形对象,并且可包括指示当控制器(例如,图2的控制器220)与第二身体部分(例如,右手)接触时能够显示的控制器的形状的图形对象。
例如,当在作为与控制器(例如,图2的控制器220)相应的图形对象的“枪”被显示在电子装置301的显示器360的中心位置处的同时接收到指示用户用他/她的左手握持控制器的第一控制信号时,第一处理器320可将作为位于显示器的至少部分区域(例如,显示区域的中心区域,以下称为显示器的中心区域)处的图形对象的“枪”显示为作为第一图形对象的“枪”,该第一图形对象的位置被改变为当用户用他/她的左手握持作为图形对象的“枪”时的位置。另外,当在作为与控制器(例如,图2的控制器220)相应的图形对象的“枪”被显示在电子装置301的显示器360的中心位置处的同时接收到指示用户用他/她的右手握持控制器的第二控制信号时,第一处理器320可将作为位于显示器的中心区域处的图形对象的“枪”显示为作为第二图形对象的“枪”,该第二图形对象的位置被改变为当用户用他/她的右手握持作为图形对象的“枪”时的位置。另外,当通过电子装置301的显示器360在作为第一图形对象的“枪”的同时接收到指示用户用他/她的右手握持控制器的第二控制信号时,第一处理器320可将作为位于显示器的中心区域处的图形对象的“枪”显示为作为第二图形对象的“枪”,该第二图形对象的位置被改变为当用户用他/她的右手握持作为图形对象的“枪”时的位置。
根据各种实施例,第一处理器320可通过第一通信电路390从与第一身体部分(例如,左手)和第二身体部分(例如,右手)接触的控制器获取包括指示控制器与第一身体部分和第二身体部分接触的信息的第三控制信号。第一处理器320可至少部分地基于第三控制信号,通过显示器360显示与第一身体部分的位置和第二身体部分的位置相应的第三图形对象。例如,当双手(例如,第一身体部分{例如,左手}和第二身体部分{例如,右手})与一个控制器接触时,第一处理器320可从双手接触的控制器接收包括指示双手与控制器接触的信息的第三控制信号,并且可通过显示器360显示与双手接触的控制器相应的第三图形对象。
根据一些实施例,当从用于根据第一控制信号的接收通过显示器360显示与第一身体部分(例如,左手)的位置相应的第一图形对象的第一模式切换到用于根据第二控制信号的接收显示与第二身体部分(例如,右手)的位置相应的第二图形对象的第二模式时,第一处理器320可通过在从第一模式转换到第二模式期间显示动画等来平滑地表达对象的变换。
第一处理器320可从与特定身体部分(例如,左手或右手)接触的控制器(例如,图2的控制器220)接收包括特定身体部分(例如,左手或右手)的位置和控制器(例如,图2的控制器220)的移动信息的控制信号,可基于控制信号识别控制器所接触的特定身体部分和控制器的移动信息,并且可基于控制器的移动信息改变与特定身体部分相应的图形对象,以便通过显示器360(例如,图1的显示器160和图2的显示器211)显示改变后的图形对象。
根据某些实施例,当从控制器(例如,图2的控制器220)接收到第一控制信号时,第一处理器320可基于第一控制信号将与控制器相应的图形对象改变为与第一身体部分(例如,左手)的位置相应并与该图形对象相关联的第一图形对象,并且可基于控制器的移动信息改变并显示第一图形对象。
根据各种实施例,第一控制信号可包括指示控制器所接触的第一身体部分的信息(例如,握持模式信息和控制器的移动/旋转信息)。
根据一些实施例,当从控制器(例如,图2的控制器220)接收到第二控制信号时,第一处理器320可基于第二控制信号将与控制器相应的图形对象改变为与第二身体部分(例如,右手)的位置相应并与该图形对象相关联的第二图形对象,并且可基于控制器的移动信息改变并显示第二图形对象。
根据某些实施例,第二控制信号可包括指示控制器所接触的第二身体部分的信息(例如,握持模式信息和控制器的移动/旋转信息)。
第一处理器320可至少部分地基于从与特定身体部分(例如,左手或右手)接触的控制器(例如,图2的控制器220)接收的控制信号来识别控制器所接触的特定身体部分(例如,左手或右手)的位置和尺寸,并且可通过显示器360(例如,图1的显示器160和图2的显示器211)显示与特定身体部分的位置相应的图形对象以及与特定身体部分的尺寸相应的身体图形对象(例如,手)。
根据各种实施例,当通过第一通信电路390从与第一身体部分(例如,左手)接触的控制器(例如,图2的控制器220)接收到第一控制信号时,第一处理器320可至少部分地基于第一控制信号识别与第一身体部分(例如,左手)的位置相应的第一图形对象,可识别与第一身体部分(例如,左手)的尺寸相应的第一身体图形对象,并且可通过显示器360显示由第一身体图形对象握持的第一图形对象。
根据一些实施方案,第一控制信号可包括指示控制器(例如,图2的控制器220)所接触的第一身体部分的信息(例如,握持模式信息)和第一身体部分的尺寸。
根据某些实施例,当通过第一通信电路390从与第二身体部分(例如,右手)接触的控制器(例如,图2的控制器220)接收到第一控制信号时,第一处理器320可至少部分地基于第一控制信号识别与第二身体部分(例如,右手)的位置相应的第二图形对象,可识别与第二身体部分(例如,右手)的尺寸相应的第二身体图形对象,并且可通过显示器360显示由第二身体图形对象握持的第二图形对象。
根据各种实施例,第二控制信号可包括指示控制器(例如,图2的控制器220)所接触的第二身体部分的信息(例如,握持模式信息)和第二身体部分的尺寸。
第一处理器320可至少部分地基于从与特定身体部分接触的控制器(例如,图2的控制器220)接收的控制信号来识别控制器所接触的特定身体部分(例如,左手或右手),并且可通过显示器360(例如,图1的显示器160和图2的显示器211)显示与特定身体部分相应的图形对象。
根据一些实施例,当通过第一通信电路390从与第一身体部分(例如,左手)接触的控制器(例如,图2的控制器220)接收到第一控制信号时,第一处理器320可至少部分地基于第一控制信号通过显示器360显示与第一身体部分相应的第一图形对象,并且第一图形对象可以是第一身体图形对象(例如,图8的第一身体图形对象811a或图9的第一身体图形对象913a)。
根据某些实施例,第一处理器320可在显示指示第一身体部分的第一图形对象(例如,第一身体图形对象{左手})的同时基于第一控制信号(例如,移动信息)显示与第一图形对象相关联的相应于控制器的第三图形对象(例如,图8的第一图形对象801a或图8的第二图形对象801b、控制器图形对象)。
根据各种实施例,第一控制信号可包括指示与控制器(例如,图2的控制器220)接触的第一身体部分的信息(例如,基于传感器数据的握持模式信息)。根据各种实施例,第一控制信号可包括用于在显示器360上显示第一图形对象的信息。
根据一些实施例,当通过第一通信电路390从与第二身体部分(例如,右手)接触的控制器接收到第二控制信号时,第一处理器320可至少部分地基于第二控制信号,通过显示器360显示第二图形对象以与第二身体部分相应,并且第二图形对象可以是第二身体图形对象(例如,图8的第二身体图形对象813a或图9的第二身体图形对象913b)。
根据某些实施例,第一处理器320可在显示指示第二身体部分的第二图形对象(例如,第二身体图形对象{右手})的同时,基于第二控制信号(例如,移动信息)来显示与第二图形对象相关联的相应于控制器的第三图形对象。根据各种实施例,第二控制信号可包括指示与控制器(例如,图2的控制器220)接触的第二身体部分的信息(例如,握持模式信息)。根据各种实施例,第一控制信号可包括用于在显示器360上显示第一图形对象的信息。
存储器330(例如,图1的存储器130)可存储能够控制电子装置301的程序,并且可存储用于提供通过显示器360显示的虚拟空间图像的数据和用于显示虚拟图形对象的数据。
虚拟空间控制模块350可由第一处理器320控制,可生成与内容相应的虚拟空间数据,并且可通过显示器360提供虚拟空间图像。虚拟空间控制模块350可生成并布置将被布置在虚拟空间中的目标对象,并且可生成并显示能够操作目标对象的虚拟图形对象。
根据一些实施例,虚拟空间控制模块350可生成并在第一处理器320的控制下在显示器360的中心区域显示与控制器(例如,图2的控制器220)相应的虚拟图形对象。虚拟空间控制模块350可在第一处理器320的控制下生成并显示指示控制器的第一图形对象,其中,第一图形对象的位置被改变为与第一身体部分相应的位置。虚拟空间控制模块350可在第一处理器320的控制下生成并显示指示控制器的第二图形对象,其中,第二图形对象的位置被改变为与第二身体部分相应的位置。虚拟空间控制模块350可在第一处理器320的控制下生成并显示指示控制器的第一图形对象和指示控制器的第二图形对象,其中,第一图形对象的位置被改变为与第一身体部分相应的位置,第二图形对象的位置被改变为与第二身体部分相应的位置。
例如,当在第一处理器320的控制下在虚拟空间图像中提供与射击游戏相关的内容时,虚拟空间控制模块350可生成并显示用于射击游戏的虚拟空间图像,并且可生成并在显示器360的中心位置处显示与控制器相应的图形对象(例如,枪),并且可生成并显示握持该图形对象的身体图形对象(例如,手)。虚拟空间控制模块350可在第一处理器320的控制下生成并显示由第一身体图形对象(例如,左手)握持的与第一身体部分(例如,左手)的位置相应的第一图形对象(例如,枪),并可基于控制器的移动信息改变并显示第一图形对象。
虚拟空间控制模块350可在第一处理器320的控制下生成并显示由第二身体图形对象(例如,右手)握持的与第二身体部分(例如,右手)的位置相应的第二图形对象(例如,枪),并可基于控制器的移动信息改变并显示第二图形对象。虚拟空间控制模块350可在第一处理器320的控制下生成并显示被第一身体图形对象(例如,左手)和第二身体图形对象(例如,右手)同时握持的与第一身体部分(例如,左手)的位置和第二身体部分(例如,右手)的位置相应的第三图形对象(例如,枪),并且可基于控制器的移动信息改变并显示第三图形对象。
第一通信电路390(例如,图1的通信模块190)可包括有线通信模块和无线通信模块,并且可与控制器(例如,图2的控制器220)执行有线通信或无线通信。
根据某些实施例,第一通信电路390可被连接到控制器(例如,图2的控制器220)的第二通信电路,以将数据和信号发送到控制器的第二通信电路以及从控制器的第二通信电路接收数据和信号。
根据各种实施例,当从控制器(例如,图2的控制器220)的第二通信电路接收到指示控制器的电源接通的信号(即,第一信号至第三信号)时,第一通信电路390可将接收到的信号发送到第一处理器320。
图4示出根据各种实施例的控制器的配置。
参照图4的非限制性示例,控制器401(例如,图1的电子装置102)可包括第二处理器420、输入单元450、传感器单元476、电力单元489和第二通信电路490。
第二处理器420可基于从传感器单元476接收的信号(例如,控制信号)获得包括与特定身体部分接触的控制器401的位置信息的控制信号,并且可通过第二通信电路490(例如,图1的通信模块190)将获得的控制信号发送到电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301)。根据一些实施例,从传感器单元476接收的控制信号可包括从第一传感器单元476a接收的信号(例如,握持模式信息)和从第二传感器单元476b接收的移动信息(例如,传感器数据)。
根据某些实施例,第二处理器420可基于从第一传感器单元476a接收的握持信号获得第一握持模式信息,并且可基于第一握持模式信息通过第二通信电路490将指示控制器401与第一身体部分(例如,左手)接触的第一控制信号发送到电子装置(例如,图2的电子装置210)。
根据各种实施例,第二处理器420可基于从第一传感器单元476a接收的握持信号获得第二握持模式信息,并且可基于第二握持模式信息通过第二通信电路490将指示控制器401与第二身体部分(例如,右手)接触的第二控制信号发送到电子装置(例如,图2的电子装置210)。
根据一些实施例,第二处理器420可基于从第一传感器单元476a接收的握持信号获得第一握持模式信息和第二握持模式信息,并且可基于第一握持模式信息和第二握持模式信息,通过第二通信电路490将指示控制器401同时与第一身体部分(例如,左手)和第二身体部分(例如,右手)接触的第三控制信号发送到电子装置(例如,图2的电子装置210)。
输入单元450(例如,图1的输入装置150)可被用于接收与通过电子装置的显示器显示的虚拟空间图像和虚拟图形对象相关联的输入,并且可包括第一输入单元和第二输入单元。第一输入单元可包括触摸识别图案,第二输入单元可包括作为圆顶键结构的主页(home)键、后退(back)键和音量(volume)键。
传感器单元476(例如,图1的传感器模块176)可包括第一传感器单元476a和第二传感器单元476b,并且可将通过检测与控制器401接触的身体而获得的信号以及通过控制器401的移动/旋转而获得的移动信号发送到第二处理器420。第一传感器单元476a可包括至少一个第一传感器,并且可将通过由所述至少一个第一传感器检测与控制器401接触的特定身体部分而获得的信号发送到第二处理器420。可选地,第一传感器单元476a可将通过由所述至少一个第一传感器检测与控制器401接触的身体而获得的信号发送到第二处理器420,使得可由第二处理器420识别与控制器401接触的特定身体部分。
第一传感器单元476a可包括至少一个传感器,并且所述至少一个传感器可被布置在控制器401的一行中或以其特定形式布置。第一传感器单元476a可检测关于控制器401的握持状态(左手握持或右手握持),并且可包括握持传感器、触摸传感器、热传感器、接近传感器等。
传感器单元476b可检测控制器401的移动的变化并且可包括角速度传感器、地磁传感器、加速度传感器等。第二传感器单元476b可由安装在控制器401的壳体内部的IC构成。
电力单元489(例如,图1的电池189)可以是用于向控制器401的至少一个部件供电的装置,并且可包括例如不可再充电的原电池或可再充电的蓄电池或燃料电池。
第二通信电路490(例如,图1的通信模块190)可包括有线通信电路和无线通信电路,并且可与电子装置(例如,图2的电子装置210)执行有线通信或无线通信。
根据某些实施例,第二通信电路490可被连接到电子装置(例如,图2的电子装置210)的第一通信电路,以便将数据或信号发送到电子装置(例如,图2的电子装置210)的第一通信电路以及从电子装置(例如,图2的电子装置210)的第一通信电路接收数据或信号。
根据各种实施例,第二通信电路490可将指示控制器401的电源接通的信号(即,第一控制信号至第三控制信号)发送到电子装置(例如,图2的电子装置210)的第一通信电路。
图5A和图5B以及图6至图7示出根据各种实施例的控制器的传感器单元的部件的布置。
图5A的非限制性示例示出布置有用于识别用户的握持的至少一个传感器511a至511d的控制器501(例如,图1的电子装置102)的正视图和侧视图。用于识别用户的握持位置和握持状态(例如,用户在握持时的手指关节的形状)的所述至少一个传感器511a至511d可被布置在控制器501中,并且可被布置在第一输入单元512周围或/和控制器501的左侧和右侧上。
例如,如图5B的非限制性示例中所示,当用户用他们的右手使用控制器501(例如,图1的电子装置102)时,可执行控制器501的第一输入单元512,或者可通过所述至少一个传感器511a至511b检测握持第一输入单元512的右侧表面的用户的拇指。另外,可执行位于控制器501的第一输入单元512的后表面上的另一输入单元513,或者可通过所述至少一个传感器511a至511b检测握持第一输入单元512的上表面及其上侧的后表面的用户的食指。另外,可通过所述至少一个传感器511a至511d检测握持控制器501的主体部分的左侧表面的用户的其余手指。
如图6的非限制性示例中所示,在根据本公开的各种实施例中,至少一个传感器611a至611c中的每个可在横向方向上以三行布置在控制器601中。
如图7的说明性示例中所示,在某些实施例中,至少一个传感器711a至711c中的每个可在纵向方向上以三行布置在控制器701中。
图8示出根据各种实施例的控制电子装置中显示的对象的方面。
如图8的说明性示例中所示,当用户用他/她的左手811握持控制器801(例如,图1的电子装置102)时,电子装置(例如,图2的电子装置210或图3的电子装置301)可通过显示器850提供示出与左手811相应的第一身体图形对象811a握持与控制器801相应的第一图形对象801a的虚拟图像数据。
当用户将控制器801从他们的左手811移动到他们的右手813并且握持移动的控制器801时,电子装置(例如,图2的电子装置210或图3的电子装置301)可在没有任何特定操作或菜单选择的情况下通过显示器850提供示出与右手813相应的第二身体图形对象813a握持与控制器801相应的第二图形对象801b的虚拟图像数据。
控制器801可通过控制器801的传感器单元(例如,图4的传感器单元476)检测控制器801从左手到右手的移动,并且可检测相对于控制器801的握持状态或握持位置的变化。
控制器801可通过控制器801的传感器单元(例如,图4的传感器单元476)计算控制器801从左手到右手的位置变化,并且当识别出控制器801的位置变化时,电子装置(例如,图2的电子装置210或图3的电子装置301)可将与控制器801相应的第一图形对象801a改变并通过显示器850显示为第二图形对象801b。
图9A和9B示出根据各种实施例的控制显示在电子装置中的对象的方面。
在图9A的非限制性实例中,电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301)可在电子装置的显示器950上显示与控制器(例如,图1的电子装置102、图2的控制器220或图4的控制器401)相应的控制器图形对象901a或901b以及与握持用户的左手相应的第一图形对象(例如,第一身体图形对象913a)。可选地,电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301)可在电子装置的显示器950上显示与用户的右手相应的第二图形对象(例如,第二身体图形对象913b)。第一图形对象或第二图形对象可被渲染在与控制器图形对象的区域相应的位置处并被显示在电子装置的显示器950上。电子装置可在电子装置的显示器950上显示第一身体图形对象913a和控制器图形对象901a,其中,第一身体图形对象913a和控制器图形对象901a通过在虚拟现实中反映特定状态值(诸如控制器的位置、旋转和尺寸)而以调整后的状态被渲染。
根据一些实施例,当电子装置识别出用户已经将控制器移动到(当前没有握持控制器的)他们的右手,并且与用户的右手相应的第二身体图形对象913b(例如,第二身体图形对象)可被渲染并显示在与图9A的第一身体图形对象913a(例如,第一身体图形对象)的位置相同的位置处时,可使在虚拟空间图像中提供的图形对象的自然度丧失。因此,如图9B所示,与用户的右手相应的第二图形对象901b可根据握持运动被渲染并显示在与控制器相应的控制器图形对象901a或901b的位置处,并且可调整在虚拟现实中被握持的第二图形对象901b的状态值,使得可保持第二图形对象901b的自然度。
图10A和10B示出根据各种实施例的在电子装置中识别对象的尺寸的方面。
参照图10A的非限制性示例,至少一个接近传感器可在控制器1001(例如,图2的控制器220或图4的控制器401)中被布置成一行或特定形式的图案。由N组组成的M行的接近传感器的值可构成由N行和M列组成的矩阵。例如,当接近传感器1011a和1011b由五组组成的两行构成时,传感器值可由诸如[[0,1,1,1,0]、[0,0,0,0,0]]的矩阵的值表示。矩阵的值可作为握持信息被包括在控制信号中以被发送到电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301),并且电子装置可基于包括在控制信号中的矩阵的值来检测由控制器握持的特定身体部分(例如,左手和/或右手)。另外,电子装置可基于矩阵的值来检测从食指的外侧a1到小指的外侧b1的距离d1,并且可将检测到的距离d1识别为握持控制器的用户的手的尺寸/宽度。电子装置可调整并显示将要通过显示器显示在虚拟空间图像上的身体图形对象以与所识别的用户的手的尺寸/宽度相应。
参照图10B的说明性示例,至少一个握持传感器可在控制器1001(例如,图2的控制器220或图4的控制器401)中被布置成一行或特定形式的图案。当握持传感器以3×3形式被布置在控制器中时,可从第二列中的传感器值检测轮廓线a2和b2的值。
轮廓线的检测值可作为握持模式信息被包括在控制信号中以被发送到电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301),并且电子装置可基于包括在控制信号中的轮廓线的值来检测从握持控制器的手的食指的掌骨和近端指骨之间的关节a2到握持控制器的手的小指的掌骨和近端指骨之间的关节b2的距离d2。电子装置可将检测到的距离d2识别为握持控制器的用户的手的尺寸/宽度。电子装置可调整并通过显示器显示将在虚拟空间图像中显示的身体图形对象以与所识别的用户的手的尺寸/宽度相应。
根据各种实施例,电子装置可包括显示器(例如,图3的显示器360)、通信电路(例如,图3的第一通信电路390)和处理器(例如,图1的处理器120或图3的处理器320)。处理器可被配置为通过通信电路从与第一身体部分接触的控制器获取包括指示控制器与第一身体部分接触的信息的第一控制信号,至少部分地基于第一控制信号通过显示器显示与第一身体部分相应的第一图形对象,通过通信电路从与第二身体部分接触的控制器获取包括指示控制器与第二身体部分接触的信息的第二控制信号,并且至少部分地基于第二控制信号通过显示器显示与第二身体部分相应的第二图形对象。
根据各种实施例,处理器(例如,图1的处理器120或图3的处理器320)可被配置为:当通过通信电路获取到控制器的通电信号时,在显示器的至少部分区域中显示与控制器相应的图形对象,当至少部分地基于第一控制信号识别出与第一身体部分接触的控制器的第一位置信息时,显示与图形对象相关联的第一图形对象,并且当至少部分地基于第二控制信号识别出与第二身体部分接触的控制器的第二位置信息时,显示与图形对象相关联的第二图形对象。
根据各种实施例,处理器(例如,图1的处理器120或图3的处理器320)可被配置为:在至少部分地基于第一控制信号识别出与控制器的移动相关联的信息时,改变并显示第一图形对象以与控制器的移动相应,并且在至少部分地基于第二控制信号识别出与控制器的移动相关联的信息时,改变并显示第二图形对象以与控制器的移动相应。
根据各种实施例,处理器(例如,图1的处理器120或图3的处理器320)可被配置为通过通信电路从与第一身体部分和第二身体部分接触的控制器获取包括指示控制器与第一身体部分和第二身体部分接触的信息的第三控制信号,并且至少部分地基于所第三控制信号通过显示器显示与第一身体部分相应的第一图形对象以及与第二身体部分相应的第二图形对象。
根据各种实施例,处理器(例如,图1的处理器120或图3的处理器320)可被配置为:至少部分地基于第一控制信号来识别控制器所接触的第一身体部分的第一尺寸;至少部分地基于第一尺寸来改变并显示与第一图形对象接触的第一身体图形对象的尺寸;至少部分地基于第二控制信号来识别控制器所接触的第二身体部分的第二尺寸;并且至少部分地基于第二尺寸来改变并显示与第二图形对象接触的第二身体图形对象的尺寸。
根据各种实施例,第一图形对象可指示至少部分地基于第一控制信号获得的第一身体图形对象,并且第二图形对象可指示至少部分地基于第二控制信号获得的第二身体图形对象。
根据各种实施例,第一控制信号包括与由控制器的第一传感器单元检测到的第一身体部分相应的第一握持模式信息以及与由控制器的第二传感器单元检测到的控制器的移动相关联的信息,并且第二控制信号包括与由控制器的第一传感器单元检测到的第二身体部分相应的第二握持模式信息以及与由控制器的第二传感器单元检测到的控制器的移动相关联的信息。
根据各种实施例,处理器(例如,图1的处理器120或图3的处理器320)可被配置为通过显示器显示虚拟空间图像,在虚拟空间图像上显示与控制器相应的图形对象以及与第一身体部分相应的第一图形对象,并且在虚拟空间图像上显示与控制器相应的图形对象以及与第二身体部分相应的第二图形对象。
根据各种实施例,电子装置可包括头戴式显示装置。
根据各种实施例,电子装置可包括传感器单元(例如,图4的传感器单元476)、通信电路(例如,图4的第二通信电路490)和处理器(例如,图4的处理器420)。处理器可被配置为基于电子装置与第一身体部分接触从传感器单元获取第一控制信号,通过通信电路将第一控制信号发送到另一电子装置,使得所述另一电子装置基于第一控制信号显示与第一身体部分相应的第一图形对象,基于电子装置与第二身体部分接触从传感器单元获取第二控制信号,并且通过通信电路将第二控制信号发送到所述另一电子装置,使得所述另一电子装基于第二控制信号显示与第二身体部分相应的第二图形对象。
根据各种实施例,传感器单元(例如,图4的传感器单元476)可包括被配置为检测与电子装置接触的身体部分的第一传感器单元和被配置为检测与电子装置的移动相关联的信号的第二传感器单元。
根据各种实施例,处理器(例如,图4的处理器420)可被配置为基于从传感器单元接收的信号来获得包括指示控制器与第一身体部分接触的信息的第一控制信号,并且基于从传感器单元接收的信号来获得包括指示控制器与第二身体部分接触的信息的第二控制信号。
根据各种实施例,第一控制信号可包括与由电子装置的第一传感器单元检测到的第一身体部分相应的第一握持模式信息以及与由电子装置的第二传感器单元检测到的电子装置的移动相关联的信息,并且第二控制信号可包括与由电子装置的第一传感器单元检测到的第二身体部分相应的第二握持模式信息以及与由电子装置的第二传感器单元检测到的电子装置的移动相关联的信息。
图11以流程图格式示出根据各种实施例的控制显示在电子装置中的对象的方法的操作。根据一些实施例,对象显示方法可包括操作1101至操作1107。对象显示方法可由电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301)和电子装置的至少一个处理器(例如,图1的处理器120或图3的处理器320)中的至少一个执行。
在操作1101中,电子装置(例如,图1的处理器120或图3的处理器320)可从控制器获取指示控制器(例如,图2的控制器220或图4的控制器401)与第一身体部分接触的第一控制信号。
根据某些实施例,第一控制信号可包括指示由控制器的传感器单元检测到的第一身体部分的握持模式信息。例如,第一控制信号可包括指示控制器被用户的左手握持的握持模式信息。
在操作1103中,电子装置(例如,图1的处理器120或图3的处理器320)可通过电子装置的显示器(例如,图3的显示器360)基于第一控制信号显示与第一身体部分相应的第一图形对象。
根据各种实施例,电子装置(例如,图3的处理器320)可基于第一控制信号通过显示器(例如,图3的显示器360)在握持控制器的用户左手的位置处显示与控制器相应的用于左手的第一图形对象(例如,控制器图形对象),并且可在与第一图形对象(例如,与控制器相关联的图形对象)的区域相应的位置处显示与用户左手相应的第一身体图形对象。
根据一些实施例,电子装置(例如,图3的处理器320)可基于第一控制信号通过显示器(例如,图3的显示器360)显示与握持控制器的用户左手相应的第一图形对象(例如,第一身体图形对象),并且可在与第一图形对象(例如,第一身体图形对象)的区域相应的位置处显示与第一图形对象相关联的相应于控制器的第三图形对象(例如,控制器图形对象)。
在操作1105中,电子装置(例如,图1的处理器120或图3的处理器320)可从控制器获取指示控制器(例如,图2的控制器220或图4的控制器401)与第二身体部分接触的第二控制信号。
根据某些实施例,第二控制信号可包括指示由控制器的传感器单元检测到的第二身体部分的握持模式信息。例如,第二控制信号可包括指示控制器被用户的右手握持的握持模式信息。
在操作1107中,电子装置(例如,图1的处理器120或图3的处理器320)可基于第二控制信号通过电子装置的显示器(例如,图3的显示器360)显示与第二身体部分相应的第二图形对象。
根据各种实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第二控制信号通过显示器(例如,图3的显示器360)在握持控制器的用户右手的位置处显示与控制器相应的用于右手的第二图形对象(例如,控制器图形对象),并且可在与第二图形对象(例如,控制器图形对象)的区域相应的位置处显示与用户右手相应的第二身体图形对象。
根据一些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第二控制信号通过显示器(例如,图3的显示器360)显示与握持控制器的用户右手相应的第二图形对象(例如,第二身体图形对象),并且可在与第二图形对象(例如,第二身体图形对象)的区域相应的位置处显示与第二图形对象相关联的相应于控制器的第三图形对象(例如,控制器图形对象)。
图12以流程图格式示出根据各种实施例的控制显示在电子装置中的对象的方法的操作。根据各种实施例,该方法包括操作1201至1229。在一些实施例中,所述方法可由电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301)和电子装置的至少一个处理器(例如,图1的处理器120或图3的处理器320)中的至少一个执行。
在操作1201中,电子装置(例如,图1的处理器120或图3的处理器320)可等待通过通信电路(例如,图3的第一通信电路390)从控制器(例如,图2的控制器220或图4的控制器401)接收指示该控制器的电源接通的信号。
在操作1203中,当在操作1201中没有从控制器接收到指示控制器的电源接通的信号时,电子装置(例如,图1的处理器120或图3的处理器320)可不在显示器(例如,图3的显示器360)上显示与控制器相应的图形对象,或者可显示指示控制器被去激活的图形对象或者改变并显示与控制器相应的图形对象的透明度。
在操作1205中,当在操作1201中从控制器接收到指示控制器的电源接通的信号时,电子装置(例如,图1的处理器120或图3的处理器320)可在显示器(例如,图3的显示器360)的中心区域处显示与控制器相应的图形对象。
在操作1207中,电子装置(例如,图1的处理器120或图3的处理器320)可通过通信电路(例如,图3的第一通信电路390)从控制器(例如,图2的控制器220或图4的控制器401)接收第一控制信号。
在操作1209中,电子装置(例如,图1的处理器120或图3的处理器320)可基于包括在第一控制信号中的指示第一身体部分(例如,左手)的第一握持模式信息,将图形对象的显示模式切换到显示器上的第一模式(例如,左手模式)。
在操作1211中,电子装置(例如,图1的处理器120或图3的处理器320)可基于第一控制信号在显示器(例如,图3的显示器360)上显示与第一模式(例如,左手模式)相应的第一图形对象。
根据某些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第一控制信号将与控制器相应的图形对象改变为与第一模式(例如,左手模式)相应的第一图形对象,以在显示器(例如,图3的显示器360)上显示改变后的图形对象。此时,电子装置可通过显示器(例如,图3的显示器360)显示与第一模式相应的由第一身体图形对象(例如,左手)握持的第一图形对象。
根据各种实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第一控制信号通过显示器(例如,图3的显示器360)显示与第一身体部分(例如,左手)相应的第一图形对象(例如,第一身体图形对象)。此时,电子装置可在与第一图形对象(例如,第一身体图形对象)的区域相应的位置处显示与第一图形对象相关联的相应于控制器的第三图形对象(例如,用于第一模式的控制器图形对象)。
在操作1213中,电子装置(例如,图1的处理器120或图3的处理器320)可改变并显示第一图形对象(例如,与控制器相应的用于第一模式的第一图形对象或控制器图形对象),以便与包括在第一控制信号中的控制器的移动信息相应。
根据一些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可周期性地从控制器接收包括指示第一身体部分的第一握持模式信息和控制器的移动信息的第一控制信号。
根据某些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可在从控制器接收包括指示第一身体部分的第一握持模式信息和控制器的移动信息的第一控制信号之后,接收仅包括控制器的移动信息的第一控制信号,直到存在相对于控制器的握持的变化为止。
在操作1215中,电子装置(例如,图1的处理器120或图3的处理器320)可通过通信电路(例如,图3的第一通信电路390)从控制器(例如,图2的控制器220或图4的控制器401)接收第二控制信号。
在操作1217中,电子装置(例如,图1的处理器120或图3的处理器320)可基于包括在第二控制信号中的指示第二身体部分(例如,右手)的第二握持模式信息,将图形对象的显示模式切换到显示器上的第二模式(例如,右手模式)。
在操作1219中,电子装置(例如,图1的处理器120或图3的处理器320)可基于第二控制信号在显示器(例如,图3的显示器360)上显示与第二模式(例如,右手模式)相应的第二图形对象。根据各种实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第二控制信号将与控制器相应的图形对象改变为与第二模式(例如,右手模式)相应的第二图形对象,以在显示器(例如,图3的显示器360)上显示改变后的图形对象。此时,电子装置可通过显示器(例如,图3的显示器360)显示与第二模式相应的由第二身体图形对象(例如,右手)握持的第二图形对象。
根据一些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第二控制信号通过显示器(例如,图3的显示器360)显示与第二身体部分(例如,右手)相应的第二图形对象(例如,第二身体图形对象)。此时,电子装置(例如,图1的处理器120或图3的处理器320)可在与第二图形对象(例如,第二身体图形对象)的区域相应的位置处显示与第二图形对象相关联的相应于控制器的第三图形对象(例如,用于第二模式的控制器图形对象)并且可显示改变后的图形对象。
在操作1221中,电子装置(例如,图1的处理器120或图3的处理器320)可改变并显示第二图形对象(例如,与控制器相应的第二图形对象或用于第二模式的控制器图形对象),以便与包括在第二控制信号中的控制器的移动信息相应。
根据某些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可周期性地从控制器接收包括指示第二身体部分的第二握持模式信息和控制器的移动信息的第一控制信号。
根据各种实施例,电子装置(例如,图1的处理器120或图3的处理器320)可在从控制器接收包括指示第二身体部分的第二握持模式信息和控制器的移动信息的第二控制信号之后,接收仅包括控制器的移动信息的第二控制信号,直到存在相对于控制器的握持的改变为止。
在操作1223中,电子装置(例如,图1的处理器120或图3的处理器320)可通过通信电路(例如,图3的第一通信电路390)从控制器(例如,图2的电子装置210或图4的控制器401)接收第三控制信号。
在操作1225中,电子装置(例如,图1的处理器120或图3的处理器320)可基于包括在第三控制信号中的指示第一身体部分(例如,左手)的第一握持模式信息和指示第二身体部分(例如,右手)的第二握持模式信息,将图形对象的显示模式切换到显示器上的第三模式(例如,双手模式)。
在操作1227中,电子装置(例如,图1的处理器120或图3的处理器320)可基于第三控制信号通过显示器(例如,图3的显示器360)显示与第三模式(例如,双手模式)相应的第三图形对象。
根据一些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第三控制信号将与控制器相应的图形对象改变为与第一模式(例如,左手模式)相应的第三图形对象,并且可在显示器(例如,图3的显示器360)上显示改变后的图形对象。此时,电子装置可通过显示器(例如,图3的显示器360)显示与第三模式相应的由第一身体图形对象(例如,左手)和第二身体图形对象(例如,右手)同时握持的第三图形对象。
根据某些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可基于第三控制信号通过显示器(例如,图3的显示器360)显示与第一身体部分(例如,左手)相应的第一图形对象(例如,第一身体图形对象)以及与第二身体部分(例如,右手)相应的第二图形对象(例如,第二身体图形对象)。此时,电子装置(例如,图1的处理器120或图3的处理器320)可在与第一图形对象(例如,第一身体图形对象)的区域和第二图形对象(例如,第二身体图形对象)的区域相应的位置处显示与第一图形对象和第二图形对象相关联的相应于控制器的第三图形对象(例如,用于第三模式的控制器图形对象)。
在操作1229中,电子装置(例如,图1的处理器120或图3的处理器320)可改变并显示第三图形对象(例如,与控制器相应的第三图形对象或用于第三模式的控制器图形对象),以便与包括在第三控制信号中的控制器的移动信息相应。
根据各种实施例,电子装置(例如,图1的处理器120或图3的处理器320)可周期性地从控制器接收包括指示第一身体部分的第一握持模式信息、指示第二身体部分的第二握持模式信息和控制器的移动信息的第三控制信号。
根据一些实施例,电子装置(例如,图1的处理器120或图3的处理器320)可在从控制器接收包括指示第一身体部分的第一握持模式信息、指示第二身体部分的第二握持模式信息及控制器的移动信息的第三控制信号之后,接收仅包括控制器的移动信息的第三控制信号,直到存在相对于控制器的握持的改变为止。
图13以流程图格式示出根据各种实施例的控制显示在电子装置中的对象的方法的操作。根据某些实施例,该方法可包括操作1301至1311。在一些实施例中,所述方法可由电子装置(例如,图1的电子装置101、图2的电子装置210或图3的电子装置301)和电子装置的至少一个处理器(例如,图1的处理器120或图3的处理器320)中的至少一个执行。
在操作1301中,电子装置(例如,图1的处理器120或图3的处理器320)可从通信电路(例如,第一通信电路390)接收指示控制器(例如,图2的控制器220或图4的控制器401)的电源接通的信号。
在操作1303中,电子装置(例如,图1的处理器120或图3的处理器320)可通过电子装置的显示器(例如,图3的显示器360)显示与控制器相应的图形对象。
在操作1305中,电子装置(例如,图1的处理器120或图3的处理器320)可通过电路(例如,第一通信电路390)从控制器(例如,图2的控制器220或图4的控制器401)接收控制信号。
在操作1307中,电子装置(例如,图1的处理器120或图3的处理器320)可基于控制信号识别哪个身体部分握持控制器,并且可识别能够显示与控制器相应的对象的模式。
例如,当控制信号是包括指示第一身体部分是否握持控制器的第一握持模式信息的第一控制信号时,基于包括在第一控制信号中的指示第一身体部分(例如,左手)的第一握持模式信息,可将图形对象的显示模式识别为显示器上的第一模式(例如,左手模式)。
例如,当控制信号是包括指示第二身体部分是否握持控制器的第二握持模式信息的第二控制信号时,基于包括在第二控制信号中的指示第二身体部分(例如,右手)的第二握持模式信息,可将图形对象的显示模式识别为显示器上的第二模式(例如,右手模式)。
例如,当控制信号是包括指示第一身体部分和第二身体部分是否握持控制器的第一握持模式信息和第二握持模式信息的第三控制信号时,基于包括在第三控制信号中的指示第一身体部分(例如,左手)的第一握持模式信息和指示第二身体部分(例如,右手)的第二握持模式信息,可将图形对象的显示模式识别为显示器上的第三模式(例如,双手模式)。
在操作1309中,电子装置(例如,图1的处理器120或图3的处理器320)可基于控制信号来识别与相应于控制器的图形对象接触的身体图形对象的尺寸。在操作1309中,电子装置可基于包括在控制信号中的指示特定身体部分(例如,手)是否握持控制器的握持模式信息来识别特定身体部分(例如,手)的尺寸,并且可识别与特定身体部分(例如,手)相应的身体图形对象的尺寸。
在操作1311中,电子装置(例如,图1的处理器120或图3的处理器320)可通过显示器(例如,图3的显示器360)显示虚拟图像数据,该虚拟图像数据指示在识别的模式(例如,第一模式(左手模式)、第二模式(右手模式)或第三模式(双手模式))下识别出尺寸的与特定身体部分(例如,手)相应的身体图形对象握持与控制器相应的图形对象。
图14以流程图格式示出根据各种实施例的在控制器中发送控制信号的方法的操作。在一些实施例中,发送控制信号的方法可包括操作1401至1405。在各种实施例中,参照图14示出的方法可由至少一个控制器(例如,图2的控制器220或图4的控制器401)和控制器的至少一个处理器(例如,图4的处理器420)执行。
在操作1401中,控制器(例如,图4的处理器420)可基于从第一传感器单元(例如,图4的第一传感器单元476a)接收的传感器值来检测指示由控制器握持的特定身体部分的握持模式信息。
根据某些实施例,控制器(例如,图4的处理器420)可基于传感器值来检测指示第一身体部分(例如,左手)握持控制器的第一握持模式信息或指示第二身体部分(例如,右手)握持控制器的第二握持模式信息。
根据各种实施例,控制器(例如,图4的处理器420)可基于检测到的握持模式信息根据握持控制器的身体部分来识别模式。例如,控制器可在检测到的握持模式信息是指示第一身体部分的第一握持模式信息时将根据身体部分的模式识别为第一模式(例如,左手模式),可在检测到的握持模式信息是指示第二身体部分的第二握持模式信息时将根据身体部分的模式识别为第二模式(例如,右手模式),并且可在检测到的握持模式信息是同时指示第一身体部分和第二身体部分的第三握持模式信息时将根据身体部分的模式识别为第三模式(例如,左手模式)双手模式。
在操作1403中,控制器(例如,图4的处理器420)可基于从第二传感器单元(例如,图4的第二传感器单元476b)接收的传感器值来检测控制器的移动/旋转信息。
根据一些实施例,在指示第一身体部分(例如,左手)握持控制器(例如,图4的处理器420)的第一模式中,控制器可基于从第二传感器单元(例如,图4的第二传感器单元476b)接收的传感器值来检测控制器的移动/旋转信息。
根据某些实施例,在指示第二身体部分(例如,右手)握持控制器(例如,图4的处理器420)的第二模式中,控制器可基于从第二传感器单元(例如,图4的第二传感器单元476b)接收的传感器值来检测控制器的移动/旋转信息。
根据各种实施例,在指示第一身体部分(例如,左手)和第二身体部分(例如,右手)握持控制器(例如,图4的处理器420)的第三模式中,控制器可基于从第二传感器单元(例如,图4的第二传感器单元476b)接收的传感器值来检测控制器的移动/旋转信息。
在操作1405中,控制器(例如,图4的处理器420)可通过通信电路(例如,图4的第二通信电路490)将包括握持模式信息或控制器的移动信息的控制信号发送到电子装置(例如,图2的电子装置210或图3的电子装置301)。
根据一些实施例,在指示第一身体部分(例如,左手)握持控制器(例如,图4的处理器420)的第一模式中,控制器可在将包括指示控制器被第一身体部分握持的第一握持模式信息的第一控制信号发送到电子装置之后,将仅包括控制器的移动信息的第一控制信号发送到电子装置,直到第一模式改变为另一模式为止。
根据某些实施例,在指示第一身体部分(例如,左手)握持控制器(例如,图4的处理器420)的第一模式中,控制器可在将包括指示控制器被第一身体部分握持的第一握持模式信息和控制器的移动信息的第一控制信号发送到电子装置之后,将仅包括控制器的移动信息的第一控制信号发送到电子装置,直到第一模式改变为另一模式为止。
根据各种实施例,在指示第二身体部分(例如,右手)握持控制器(例如,图4的处理器420)的第二模式中,控制器可在将包括指示控制器被第二身体部分(例如,右手)握持的第二握持模式信息的第二控制信号发送到电子装置之后,将仅包括控制器的移动信息的第二控制信号发送到电子装置,直到第二模式改变到另一模式为止。
根据一些实施例,在指示第二身体部分(例如,右手)握持控制器(例如,图4的处理器420)的第二模式中,控制器可在将包括指示控制器被第二身体部分握持的第二握持模式信息和控制器的移动信息的第二控制信号发送到电子装置之后,将仅包括控制器的移动信息的第二控制信号发送到电子装置,直到第二模式改变为另一模式为止。
根据某些实施例,在指示第一身体部分(例如,左手)和第二身体部分(例如,右手)握持控制器(例如,图4的处理器420)的第三模式中,控制器可在发送包括指示控制器被第一身体部分和第二身体部分握持的第三握持模式信息的第三控制信号之后,将仅包括控制器的移动信息的第三控制信号发送到电子装置,直到第三模式改变为另一模式为止。
根据各种实施例,在指示第一身体部分(例如,左手)和第二身体部分(例如,右手)握持控制器(例如,图4的处理器420)的第三模式中,控制器可在将包括指示控制器被第一身体部分和第二身体部分握持的第三握持模式信息和控制器的移动信息发送到电子装置之后,将仅包括控制器的移动信息的第三控制信号发送到电子装置,直到第三模式改变为另一模式为止。
根据各种实施例,一种控制电子装置中的对象显示的方法可包括:通过包括在电子装置中的通信电路从与第一身体部分接触的控制器获取包括指示控制器与第一身体部分接触的信息的第一控制信号,至少部分地基于第一控制信号通过显示器显示与第一身体部分相应的第一图形对象以及与第一图形对象相关联的相应于控制器的第三图形对象,通过通信电路从与第二身体部分接触的控制器获取包括指示控制器与第二身体部分接触的信息的第二控制信号,并且至少部分地基于第二控制信号通过显示器显示与第二身体部分相应的第二图形对象以及与第二图形对象相关联的第三图形对象。
根据各种实施例,控制对象显示的方法还可包括:当从通信电路获取到指示控制器的电源接通的信号时,在显示器的至少部分区域中显示与控制器相应的第三图形对象,当至少部分地基于第一控制信号识别出与第一身体部分接触的控制器的第一位置信息时,显示第一图形对象以及与第一图形对象相关联的第三图形对象,并且当至少部分地基于第二控制信号识别出与第二身体部分接触的控制器的第二位置信息时,显示第二图形对象以及与第二图形对象相关联的第三图形对象。
根据各种实施例,控制对象显示的方法还可包括:当至少部分地基于第一控制信号识别出与控制器的移动相关联的信息时,改变并显示第三图形对象以与控制器的移动相应;并且当至少部分地基于第二控制信号识别出与控制器的移动相关联的信息时,改变并显示第三图形对象以与控制器的移动相应。
根据各种实施例,控制对象显示的方法还可包括:通过通信电路从与第一身体部分和第二身体部分接触的控制器获取包括指示控制器与第一身体部分和第二身体部分接触的信息的第三控制信号,并且至少部分地基于第三控制信号,通过显示器显示与第一身体部分相应的第一图形对象、与第二身体部分相应的第二图形对象以及与第一图形对象和第二图形对象相关联的相应于控制器的第三图形对象。
根据各种实施例,控制对象显示的方法还可包括:至少部分地基于第一控制信号来识别控制器所接触的第一身体部分的第一尺寸,并且至少部分地基于第一尺寸来改变并显示第一图形对象的尺寸;并且至少部分地基于第二控制信号来识别控制器所接触的第二身体部分的第二尺寸,并且至少部分地基于第二尺寸来改变并显示第二图形对象的尺寸。
根据各种实施例,第一控制信号包括与由控制器的第一传感器单元检测到的第一身体部分相应的第一握持模式信息以及与由控制器的第二传感器单元检测到的控制器的移动相关联的信息,第二控制信号包括与由控制器的第一传感器单元检测到的第二身体部分相应的第二握持模式信息以及与由控制器的第二传感器单元检测到的控制器的移动相关联的信息。
根据各种实施例,控制对象显示的方法还可包括:通过显示器显示虚拟空间图像,在虚拟空间图像中显示与第一身体部分相应的第一图形对象以及与第一图形对象相关联的相应于控制器的第三图形对象,并且在虚拟空间图像中显示与第二身体部分相应的第二图形对象以及与第二图形对象相关联的相应于控制器的第三图形对象。
如本文所使用的术语“模块”可包括由硬件、软件或固件组成的单元,并且可例如与术语“逻辑”、“逻辑块”、“部件”、“电路”等可互换地使用。“模块”可以是集成部件、或用于执行一个或更多个功能的最小单元或其一部分。“模块”可以是机械地或电子地实现的,并且可包括例如用于执行某些操作的专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)或可编程逻辑器件。根据各种实施例的装置(例如,装置的模块或功能)或方法(例如,操作)中的至少一些可通过以程序模块的形式存储在计算机可读存储介质(例如,存储器130)中的指令来实现。指令在由处理器(例如,处理器120)执行时可使得一或更多个处理器执行与指令相应的功能。计算机可读存储介质可包括硬盘、软盘、磁介质(例如,磁带)、光学介质(例如,CD-ROM、DVD)、磁光介质(例如,软盘)、内部存储器等。指令可包括由编译器生成的代码或可由解释器执行的代码。
根据各种实施例,在存储指令的存储介质中,指令可被配置为当由至少一个处理器执行时使得所述至少一个处理器执行至少一个操作,其中,所述至少一个操作包括:通过包括在电子装置中的通信模块从与第一身体部分接触的控制器获取包括指示控制器与第一身体部分接触的信息的第一控制信号的操作;至少部分地基于第一控制信号,通过显示器显示与第一身体部分相应的第一图形对象以及与第一图形对象相关联的相应于控制器的第三图形对象的操作;通过通信模块从与第二身体部分接触的控制器获取包括指示控制器与第二身体部分接触的信息的第二控制信号的操作;以及至少部分地基于第二控制信号,通过显示器显示与第二身体部分相应的第二图形对象以及与第二图形对象相关联的第三图形对象的操作。
根据本公开的编程模块可包括前述部件中的一个或更多个或者可进一步包括其他附加部件,或者可省略前述部件中的一些。由根据各种实施例的模块、编程模块或其他元件执行的操作可顺序地、并行地、重复地或以启发式方式执行。至少一些操作可根据另一序列来执行,可被省略,或者可进一步包括其他操作。
尽管已经利用各种实施例描述了本公开,但是可向本领域技术人员建议各种改变和修改。本公开旨在涵盖落入所附权利要求的范围内的这些改变和修改。

Claims (15)

1.一种电子装置,包括:
显示器;
通信电路;以及
处理器,
其中,处理器被配置为:
通过通信电路从与第一身体部分接触的控制器获取第一控制信号,其中,第一控制信号包括指示所述控制器与第一身体部分接触的信息,
基于第一控制信号,通过显示器显示与第一身体部分相应的第一图形对象,
通过通信电路从与第二身体部分接触的所述控制器获取第二控制信号,其中,第二控制信号包括指示所述控制器与第二身体部分接触的信息,并且
基于第二控制信号,通过显示器显示与第二身体部分相应的第二图形对象。
2.根据权利要求1所述的电子装置,其中,处理器被配置为:
当通过通信电路获取到所述控制器的电源接通信号时,在显示器的至少部分区域中显示与所述控制器相应的图形对象,
当第一位置信息指示所述控制器与第一身体部分接触时,将第一图形对象显示为与相应于所述控制器的图形对象相关联,其中,第一位置信息基于第一控制信号,并且
当第二位置信息指示所述控制器与第二身体部分接触时,将第二图形对象显示为与到所述控制器的图形对象相关联,其中,第二位置信息基于第二控制信号。
3.根据权利要求1所述的电子装置,其中,处理器被配置为:
响应于与所述控制器的移动相关联的信息来显示第一图形对象,其中,与所述控制器的移动相关联的信息基于第一控制信号,并且
响应于与移动相关联的信息来显示第二图形对象,其中,与所述控制器的移动相关联的信息基于第二控制信号。
4.根据权利要求1所述的电子装置,其中,处理器被配置为:
通过通信电路从与第一身体部分和第二身体部分接触的所述控制器获取第三控制信号,其中,第三控制信号包括指示所述控制器与第一身体部分和第二身体部分接触的信息,并且
基于第三控制信号,通过显示器显示与第一身体部分相应的第一图形对象以及与第二身体部分相应的第二图形对象。
5.根据权利要求1所述的电子装置,其中,处理器被配置为:
基于第一控制信号识别与所述控制器接触的第一身体部分的第一尺寸,
基于识别出的第一尺寸显示第一身体图形对象,
基于第二控制信号识别与所述控制器接触的第二身体部分的第二尺寸,并且
基于所识别出的第二尺寸来显示第二身体图形对象。
6.根据权利要求1所述的电子装置,其中,
第一控制信号包括与由所述控制器的第一传感器单元检测到的第一身体部分相应的第一握持模式信息和与由所述控制器的第二传感器单元检测到的控制器的移动相关联的信息,并且
第二控制信号包括与由所述控制器的第一传感器单元检测到的第二身体部分相应的第二握持模式信息以及与由所述控制器的第二传感器单元检测到的控制器的移动相关联的信息。
7.一种控制电子装置中显示的对象的方法,包括:
通过包括在电子装置中的通信电路获取第一控制信号,其中,第一控制信号包括指示控制器与第一身体部分接触的信息;
基于第一控制信号,通过显示器显示与第一身体部分相应的第一图形对象以及与所述控制器相应并与第一图形对象相关联的第三图形对象;
通过通信电路获取第二控制信号,其中,第二控制信号包括指示所述控制器与第二身体部分接触的信息;并且
基于第二控制信号,通过显示器显示与第二身体部分相应的第二图形对象以及与所述控制器相应并与第二图形对象相关联的第三图形对象。
8.根据权利要求7所述的方法,还包括:
当从通信电路获取到指示所述控制器的电源接通的信号时,在显示器的至少部分区域中显示与所述控制器相应的第三图形对象;
基于所述控制器的第一位置信息,显示第一图形对象以及与所述控制器相应并与第一图形对象相关联的第三图形对象,其中,所述控制器的第一位置信息基于第一控制信号;并且
基于所述控制器的第二位置信息,显示第二图形对象以及与所述控制器相应并与第二图形对象相关联的第三图形对象,其中,所述控制器的第二位置信息基于第二控制信号。
9.根据权利要求7所述的方法,还包括:
响应于与所述控制器的移动相关联的信息来显示第三图形对象,其中,与所述控制器的移动相关联的信息基于第一控制信号;并且
响应于与所述控制器的移动相关联的信息来显示第三图形对象,其中,与所述控制器的移动相关联的信息基于第二控制信号。
10.根据权利要求7所述的方法,还包括:
通过通信电路从所述控制器获取第三控制信号,其中,第三控制信号包括指示所述控制器与第一身体部分和第二身体部分接触的信息;以及
基于第三控制信号,通过显示器显示与第一身体部分相应的第一图形对象、与第二身体部分相应的第二图形对象以及与所述控制器相应的第三图形对象。
11.根据权利要求7所述的方法,还包括:
基于第一控制信号识别与所述控制器接触的第一身体部分的第一尺寸;
基于所识别的第一尺寸显示第一图形对象;
基于第二控制信号识别与所述控制器接触的第二身体部分的第二尺寸;并且
基于识别出的第二尺寸来显示第二图形对象。
12.根据权利要求7所述的方法,其中,
第一控制信号包括与由所述控制器的第一传感器单元检测到的与第一身体部分相应的第一握持模式信息和与由所述控制器的第二传感器单元检测到的所述控制器的移动相关联的信息,并且
第二控制信号包括与由所述控制器的第一传感器单元检测到的第二身体部分相应的第二握持模式信息以及与由所述控制器的第二传感器单元检测到的所述控制器的移动相关联的信息。
13.一种电子装置,包括:
传感器单元;
通信电路;以及
处理器,
其中,处理器被配置为:
基于与第一身体部分的接触,从传感器单元获取第一控制信号,
通过通信电路将第一控制信号发送到另一电子装置,其中,第一控制信号与基于第一控制信号显示与第一身体部分相应的第一图形对象相关联,
基于与第二身体部分的接触,从传感器单元获取第二控制信号,以及
通过通信电路将第二控制信号发送到所述另一电子装置,其中,第二控制信号与基于第二控制信号显示与第二身体部分相应的第二图形对象相关联。
14.根据权利要求13所述的电子装置,其中,处理器被配置为:
基于从传感器单元接收的信号获得第一控制信号,其中,第一控制信号包括指示控制器与第一身体部分接触的信息,以及
基于从传感器单元接收的信号获得第二控制信号,其中,第二控制信号包括指示控制器与第二身体部分接触的信息。
15.根据权利要求13所述的电子装置,其中,
第一控制信号包括与由电子装置的第一传感器单元检测到的第一身体部分相应的第一握持模式信息和与由电子装置的第二传感器单元检测到的电子装置的移动相关联的信息,并且
第二控制信号包括与由电子装置的第一传感器单元检测到的第二身体部分相应的第二握持模式信息以及与由电子装置的第二传感器单元检测到的电子装置的移动相关联的信息。
CN201980010981.9A 2018-02-27 2019-01-25 根据与控制器接触的身体部分不同地显示图形对象的方法和电子装置 Active CN111656306B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2018-0023533 2018-02-27
KR1020180023533A KR102656447B1 (ko) 2018-02-27 2018-02-27 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
PCT/KR2019/001065 WO2019168272A1 (en) 2018-02-27 2019-01-25 Method of displaying graphic object differently according to body portion in contact with controller, and electronic device

Publications (2)

Publication Number Publication Date
CN111656306A true CN111656306A (zh) 2020-09-11
CN111656306B CN111656306B (zh) 2024-03-05

Family

ID=67684990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980010981.9A Active CN111656306B (zh) 2018-02-27 2019-01-25 根据与控制器接触的身体部分不同地显示图形对象的方法和电子装置

Country Status (5)

Country Link
US (1) US10814219B2 (zh)
EP (1) EP3721326A4 (zh)
KR (1) KR102656447B1 (zh)
CN (1) CN111656306B (zh)
WO (1) WO2019168272A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2571748B (en) 2018-03-07 2022-11-23 Bae Systems Plc A method and system for measuring the bending of rowing oars
TWD197306S (zh) * 2018-05-15 2019-05-01 宏碁股份有限公司 運動控制器
TWD197307S (zh) * 2018-05-15 2019-05-01 宏碁股份有限公司 運動控制器
TWD197308S (zh) * 2018-05-31 2019-05-01 宏碁股份有限公司 運動控制器
US10824244B2 (en) * 2018-11-19 2020-11-03 Facebook Technologies, Llc Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces
JP2021089693A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 行動ベースの構成方法及び行動ベースの構成システム
US11947119B2 (en) * 2020-02-17 2024-04-02 Sony Group Corporation Display control device, display control method, and recording medium
KR20210157708A (ko) 2020-06-22 2021-12-29 삼성전자주식회사 밝기 조절 방법 및 hmd 장치
US11947736B1 (en) * 2022-12-21 2024-04-02 Varjo Technologies Oy Utilising focussing of light sources in image for controller tracking

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100156787A1 (en) * 2008-12-19 2010-06-24 Brother Kogyo Kabushiki Kaisha Head mount display
US20140055675A1 (en) * 2012-08-23 2014-02-27 Obong AN Multimedia device connected to external electronic device and method for controlling the same
CN104185979A (zh) * 2012-03-15 2014-12-03 索尼公司 信息处理装置、方法以及非暂态计算机可读介质
KR20150065340A (ko) * 2013-12-05 2015-06-15 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US20150215443A1 (en) * 2014-01-24 2015-07-30 Lg Electronics Inc. Mobile terminal and method of controlling the same
US20150370365A1 (en) * 2014-06-18 2015-12-24 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN105549870A (zh) * 2014-10-24 2016-05-04 Lg电子株式会社 移动终端及其控制方法
US20160140764A1 (en) * 2013-06-11 2016-05-19 Sony Computer Entertainment Europe Limited Head-mountable apparatus and systems
WO2016140924A1 (en) * 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
WO2017086508A1 (ko) * 2015-11-19 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN107003807A (zh) * 2014-11-28 2017-08-01 三星电子株式会社 电子装置及显示它的图形对象的方法
US20170329440A1 (en) * 2016-05-12 2017-11-16 Cirque Corporation Controller premonition using capacitive sensing
US20170354864A1 (en) * 2016-06-11 2017-12-14 Sony Interactive Entertainment Inc. Directional Interface Object
CN107530582A (zh) * 2015-01-14 2018-01-02 Mvr全球有限公司 计算机娱乐系统的控制器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7280097B2 (en) * 2005-10-11 2007-10-09 Zeetoo, Inc. Human interface input acceleration system
JP5201015B2 (ja) * 2009-03-09 2013-06-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20110034248A1 (en) * 2009-08-07 2011-02-10 Steelseries Hq Apparatus for associating physical characteristics with commands
KR101674939B1 (ko) 2010-01-07 2016-11-10 엘지전자 주식회사 인터페이스 설정 방법 및 그 방법을 채용한 디지털 방송 수신기
US8880223B2 (en) * 2012-07-16 2014-11-04 Florida Institute for Human & Maching Cognition Anthro-centric multisensory interface for sensory augmentation of telesurgery
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
JP6024515B2 (ja) * 2013-02-28 2016-11-16 ソニー株式会社 情報処理装置および記憶媒体
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
KR102184272B1 (ko) * 2014-06-25 2020-11-30 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
US9678566B2 (en) * 2015-06-03 2017-06-13 Oculus Vr, Llc Hand-held controllers for virtual reality system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100156787A1 (en) * 2008-12-19 2010-06-24 Brother Kogyo Kabushiki Kaisha Head mount display
CN104185979A (zh) * 2012-03-15 2014-12-03 索尼公司 信息处理装置、方法以及非暂态计算机可读介质
US20140055675A1 (en) * 2012-08-23 2014-02-27 Obong AN Multimedia device connected to external electronic device and method for controlling the same
US20160140764A1 (en) * 2013-06-11 2016-05-19 Sony Computer Entertainment Europe Limited Head-mountable apparatus and systems
KR20150065340A (ko) * 2013-12-05 2015-06-15 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US20150215443A1 (en) * 2014-01-24 2015-07-30 Lg Electronics Inc. Mobile terminal and method of controlling the same
US20150370365A1 (en) * 2014-06-18 2015-12-24 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN105549870A (zh) * 2014-10-24 2016-05-04 Lg电子株式会社 移动终端及其控制方法
CN107003807A (zh) * 2014-11-28 2017-08-01 三星电子株式会社 电子装置及显示它的图形对象的方法
CN107530582A (zh) * 2015-01-14 2018-01-02 Mvr全球有限公司 计算机娱乐系统的控制器
WO2016140924A1 (en) * 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
WO2017086508A1 (ko) * 2015-11-19 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US20170329440A1 (en) * 2016-05-12 2017-11-16 Cirque Corporation Controller premonition using capacitive sensing
US20170354864A1 (en) * 2016-06-11 2017-12-14 Sony Interactive Entertainment Inc. Directional Interface Object

Also Published As

Publication number Publication date
KR20190102715A (ko) 2019-09-04
WO2019168272A1 (en) 2019-09-06
EP3721326A4 (en) 2020-12-16
US20190262697A1 (en) 2019-08-29
EP3721326A1 (en) 2020-10-14
KR102656447B1 (ko) 2024-04-12
CN111656306B (zh) 2024-03-05
US10814219B2 (en) 2020-10-27

Similar Documents

Publication Publication Date Title
CN111656306B (zh) 根据与控制器接触的身体部分不同地显示图形对象的方法和电子装置
CN109806586B (zh) 游戏辅助功能的开启方法、装置、设备及可读存储介质
US10814220B2 (en) Method for controlling display of electronic device using multiple controllers and device for the same
US11416080B2 (en) User intention-based gesture recognition method and apparatus
EP3671549B1 (en) Electronic device for assisting a user during exercise
US11442274B2 (en) Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device
KR102290746B1 (ko) 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템
US20200264684A1 (en) Electronic device and method for controlling operation of display in same
EP3570144A1 (en) Electronic device for providing vr/ar content
US11275458B2 (en) Method, electronic device, and storage medium for fingerprint recognition
US11048923B2 (en) Electronic device and gesture recognition method thereof
EP3760394B1 (en) Electronic device and method for controlling external electronic device
US20200249750A1 (en) Electronic device and content executing method using sight-line information thereof
EP3705982B1 (en) Apparatus and method for adaptively configuring user interface
US20230196689A1 (en) Electronic device for using virtual input device and operation method in the electronic device
US11216165B2 (en) Content processing method and electronic device for supporting same
CN116438503A (zh) 电子装置和电子装置的操作方法
US20240078642A1 (en) Method for performing vignetting function and wearable electronic device supporting the same
KR20240037121A (ko) 사용자의 외부 환경을 촬영하는 컨트롤 장치 및 그 동작 방법 및 컨트롤 장치와 연결된 머리 착용형 전자 장치
US20220383598A1 (en) Method and apparatus for displaying augmented reality object
US11622097B2 (en) Apparatus and method for providing point of interest (POI) information in 360 video
US20240094805A1 (en) Method for controlling virtual reality content and wearable electronic device supporting the same
US20240053578A1 (en) Wearable electronic device for adjusting distance between lenses
KR20240031770A (ko) 비네팅 기능을 수행하는 방법 및 이를 지원하는 웨어러블 전자 장치
KR20230116616A (ko) 복수의 디스플레이들을 할당하는 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant