KR20190102715A - 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 - Google Patents
컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 Download PDFInfo
- Publication number
- KR20190102715A KR20190102715A KR1020180023533A KR20180023533A KR20190102715A KR 20190102715 A KR20190102715 A KR 20190102715A KR 1020180023533 A KR1020180023533 A KR 1020180023533A KR 20180023533 A KR20180023533 A KR 20180023533A KR 20190102715 A KR20190102715 A KR 20190102715A
- Authority
- KR
- South Korea
- Prior art keywords
- controller
- graphic object
- control signal
- electronic device
- display
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000004891 communication Methods 0.000 claims abstract description 120
- 230000033001 locomotion Effects 0.000 claims description 78
- 230000008859 change Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 210000004247 hand Anatomy 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 210000003811 finger Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005358 geomagnetic field Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/218—Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
- A63F13/235—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
다양한 실시예들에 따르면, 전자 장치는, 디스플레이, 통신 모듈, 및 프로세서를 포함하고, 상기 프로세서는, 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하고, 상기 제1 제어신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하고, 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하고, 및 상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록 설정될 수 있다. 다른 실시예가 가능하다.
Description
다양한 실시예들은 전자 장치에서 컨트롤러가 접촉되는 신체의 부위에 적어도 일부 기반하여 상기 컨트롤러에 대응되는 그래픽 객체의 표시를 제어하는 전자 장치 및 전자 장치에서 객체 표시의 제어 방법에 관한 것이다.
헤드 마운트 디스플레이(Head Mount Display)장치는 사용자의 머리에 장착되어, 상기 장치의 디스플레이를 통해 시각적 가상 현실을 구현하여 입체 영상을 표시하는 장치이다.
헤드 마운트 디스플레이 장치에서 시각적 가상 현실을 구현하여 입체 영상을 표시하기 위한 방법으로 별도의 컨트롤러를 사용할 수 있고, 헤드 마운트 디스플레이 장치에서는 사용자의 동작을 검출할 수 있는 컨트롤러에 대응되는 가상의 객체를 상기 장치의 디스플레이를 통해 표시할 수 있다.
상기 컨트롤러는 사용자에 의해 파지되어 사용자의 움직임에 따라 변경되는 컨트롤서의 움직임 정보를 헤드 마운트 디스플레이 장치에게 전송하고, 상기 헤드 마운트 디스플레이 장치는 상기 장치의 디스플레이를 통해 상기 컨트롤러의 움직임에 대응되게 상기 가상의 객체를 변경하여 표시할 수 있다.
하나의 컨트롤러를 사용하는 경우, 상기 컨트롤러는 왼손 모드용과 오른손 모드용이 구분되어 있어서 사용자의 손에 맞도록 사용할 수 있다.
컨트롤러에 대응되는 객체를 헤드 마운트 디스플레이 장치에 표시하기 위해, 사용자는 복수의 선택 단계를 거쳐서 상기 객체를 왼손 모드용 객체로 표시할 지 또는 오른손 모드용 객체로 표시할지 미리 설정이 필요하다.
다양한 실시예들에 따르면, 전자 장치는, 디스플레이; 통신 모듈; 및 프로세서를 포함하고, 상기 프로세서는, 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하고, 상기 제1 제어신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하고, 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하고, 및 상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록 설정될 수 있다.
다양한 실시예들에 따르면, 전자 장치에서 객체 표시의 제어방법은, 상기 전자 장치에 포함된 통신 모듈을 통해 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하는 동작; 상기 제1 제어 신호에 적어도 일부 기반하여, 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체 및 상기 제1 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 표시하는 동작; 상기 통신 모듈을 통해 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하는 동작; 및 상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제2그래픽 객체 및 상기 제2 그래픽 와 관련하여 상기 제 3 그래픽 객체를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치에 있어서, 센서 부; 통신 모듈; 및 프로세서를 포함하고, 상기 프로세서는, 신체의 제 1 부위에 접촉된 상기 전자 장치를 기반으로 상기 센서 부로부터 제1 제어 신호를 획득하고, 다른 전자 장치에서 상기 제1 제어 신호를 기반으로 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하도록, 상기 통신 모듈을 통해 상기 제1 제어 신호를 상기 다른 전자 장치에게 전송하며, 신체의 제 2 부위에 접촉된 상기 전자 장치를 기반으로 상기 센서 부로부터 제2 제어 신호를 획득하며, 상기 다른 전자 장치에서 상기 제2 제어 신호를 기반으로 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록, 상기 통신 모듈을 통해 상기 제2 제어 신호를 상기 다른 전자 장치에게 전송하도록 설정될 수 있다.
다양한 실시예들에서는, 컨트롤러에 대한 사용자의 파지(grip) 상태에 따라 컨트롤러에 대응되는 객체를 표시하여, 컨트롤러에 대응되는 객체의 좌우 전환을 자연스럽게 표시하고, 컨트롤러의 좌우 전환 동작에 대한 불편함을 최소화하여 전자 장치(예: 헤드 마운트 디스플레이 장치)에서 가상 현실의 몰입감을 저해하지 않고 사용자의 경험을 이어나갈 수 있다.
컨트롤러 제조 측면에서, 사용자의 파지형태에 따라 좌/우에 적합한 형태의 컨트롤러에 대응되는 객체의 출력이 가능하게 되므로, 좌/우 컨트롤러를 별로 만들 이유 없이 동일한 형태의 컨트롤러를 제작할 수 있다.
사용자의 파지 상태에 따라 좌/우 전환을 자연스럽게 할 수 있음으로써, 가상 현실(VR: Virtual Reality)의 컨텐트를 제작함에 있어서도, 좌/우 전환에 따른 별도 시나리오 제작 등에 대한 제약 없이 보다 더 자유로워 질 수 있으며, 양 손의 존재를 전제로 만들어진 기존의 컨텐트도 하나의 컨트롤러 만으로도 플레이가 가능할 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시예들에 따른 객체표시 제어시스템(200)을 도시한 도면이다.
도 3은 다양한 실시예들에 따른 전자 장치의 블록 도이다.
도 4는 다양한 실시예에 따른 컨트롤러의 구성도이다.
도 5 a 내지 도 5b 및 도 6 내지 도 7은 다양한 실시예에 따른 컨트롤러의 센서 부 배치를 설명하기 위한 도면이다.
도 8은 다양한 실시 예에 따른 전자 장치에서 객체 표시를 제어하는 동작을 설명하기 위한 도면이다.
도 9a 내지 도 9b는 다양한 실시 예에 따른 전자 장치에서 객체 표시를 제어하는 동작을 설명하기 위한 도면이다.
도 10a 내지 도 10b는 다양한 실시 예에 따른 전자 장치에서 객체의 크기를 결정하는 동작을 설명하기 위한 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다.
도 12는 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다.
도 13은 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다.
도 14는 다양한 실시 예에 따른 컨트롤러에서 제어 신호의 전송 방법을 나타내는 흐름도이다.
도 2는 다양한 실시예들에 따른 객체표시 제어시스템(200)을 도시한 도면이다.
도 3은 다양한 실시예들에 따른 전자 장치의 블록 도이다.
도 4는 다양한 실시예에 따른 컨트롤러의 구성도이다.
도 5 a 내지 도 5b 및 도 6 내지 도 7은 다양한 실시예에 따른 컨트롤러의 센서 부 배치를 설명하기 위한 도면이다.
도 8은 다양한 실시 예에 따른 전자 장치에서 객체 표시를 제어하는 동작을 설명하기 위한 도면이다.
도 9a 내지 도 9b는 다양한 실시 예에 따른 전자 장치에서 객체 표시를 제어하는 동작을 설명하기 위한 도면이다.
도 10a 내지 도 10b는 다양한 실시 예에 따른 전자 장치에서 객체의 크기를 결정하는 동작을 설명하기 위한 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다.
도 12는 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다.
도 13은 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다.
도 14는 다양한 실시 예에 따른 컨트롤러에서 제어 신호의 전송 방법을 나타내는 흐름도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 198 또는 제 2 네트워크 199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예들에 따른 객체표시 제어시스템(200)을 도시한 도면이다. 상기 도 2를 참조하며, 상기 시스템(200)은 전자 장치(210)(예: 도 1의 전자 장치(101))와 컨트롤러(220)(예: 도 1의 전자 장치(102))를 포함할 수 있다.
전자 장치(210)는 신체의 특정 부위에 접촉된 컨트롤러(220)로부터 수신된 신호(예: 제어 신호)에 적어도 일부 기반하여 디스플레이(211)를 통해 컨트롤러(220)에 대응되는 그래픽 객체(221a, 221b)를 신체의 특정 부위에 대응되게 표시할 수 있다. 다양한 실시예에 따른 신호(예: 제어 신호)는, 컨트롤러(220)의 센서 모듈(예: 도 4의 센서부(476))로부터 획득한 센서 데이터를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(210)는 사용자의 머리에 착용할 수 있는 헤드 마운드 디스플레이(Head Mount Display) 장치를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(210)는 신체의 제1 부위(예: 왼손)에 접촉된 컨트롤러(220)로부터 수신된 제1 제어 신호에 적어도 일부 기반하여 디스플레이(211)를 통해 컨트롤러(220)에 대응되는 그래픽 객체(221a, 221b)를 신체의 제1 부위(예: 왼손)에 대응되게 표시할 수 있다.
일 실시예에 따르면, 전자 장치(210)는 신체의 제2 부위(예: 오른 손)에 접촉된 컨트롤러(220)로부터 수신된 제2 제어 신호에 적어도 일부 기반하여 디스플레이(211)를 통해 컨트롤러(220)에 대응되는 그래픽 객체(221a, 221b)를 신체의 제2 부위(예: 오른 손)에 대응되게 표시할 수 있다.
컨트롤러(220)는 접촉된 신체의 특정 부위를 감지하고, 상기 감지된 신체의 특정 부위에 적어도 일부 기반하여 생성된 제어 신호를 전자 장치(210)에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(220)는 센서부를 이용하여 컨트롤러(220)가 접촉된 신체의 특정 부위의 감지할 수 있다.
도 3은 다양한 실시예들에 따른 전자 장치(301, 예: 도 1의 전자장치(101, 102, 또는 104), 및 도 2의 전자 장치(210))의 블록 도이다.
상기 도 3을 참조하면, 전자 장치(301)는 제1 프로세서(320), 메모리(330), 가상 공간 제어 모듈(350), 디스플레이(360) 및 제1 통신 모듈(390)을 포함할 수 있다.
제1 프로세서(320)는 신체의 특정 부위(예: 왼손 또는 오른 손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 수신된 제어 신호에 적어도 일부 기반하여 컨트롤러가 접촉된 신체의 특정 부위를 결정하고, 상기 신체의 특정 부위의 위치에 대응되는 그래픽 객체를 디스플레이(360, 예: 도 1의 디스플레이(160) 및 도 2의 디스플레이(211))를 통해 표시할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제1 부위(예: 왼손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 제1 통신 모듈(390)을 통해 제1 제어 신호가 수신되면, 상기 제1 제어 신호에 적어도 일부 기반하여, 디스플레이(360)를 통해 신체의 제1 부위의 위치에 대응되는 제1 그래픽 객체를 표시할 수 있으며, 상기 제1 그래픽 객체는 컨트롤러(예: 도 2의 220)를 나타내는 객체이다.
일 실시예에 따르면, 제1 제어 신호는 컨트롤러(예: 도 2의 컨트롤러(220))에 접촉된 신체의 제1 부위를 나타내는 정보(예: 센서 데이터에 기반한 파지(grip) 패턴 정보)를 포함할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제2 부위(예: 오른 손)가 접촉된 컨트롤러로부터 제1 통신 모듈(390)을 통해 제2 제어 신호가 수신되면, 상기 제2 제어 신호에 적어도 일부 기반하여, 디스플레이(360)를 통해 신체의 제2 부위의 위치에 대응되게 제2 그래픽 객체를 표시할 수 있으며, 상기 제2 그래픽 객체는 상기 컨트롤러를 나타내는 객체이다.
일 실시예에 따르면, 제2 제어 신호는 컨트롤러(예: 도 2의 220)에 접촉된 신체의 제2 부위를 나타내는 정보(예: 파지 패턴 정보)를 포함할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 컨트롤러(예: 도 2의 220)로 부터 전원이 온 되었다는 신호를 제1 통신 모듈(390)을 통해 수신되면, 디스플레이(360)의 중앙 위치에 컨트롤러에 대응되는 그래픽 객체를 표시하고, 상기 컨트롤러로 부터 제1 통신 모듈(390)을 통해 제1 제어 신호가 수신되면 상기 제1 제어 신호를 기반으로 신체의 제1 부위(예: 왼손)에 접촉된 컨트롤러로의 위치 정보를 검출할 수 있다. 제1 프로세서(320)는 신체의 제1 부위(예: 왼손)에 접촉된 컨트롤러로의 위치 정보를 기반으로 컨트롤러에 대응되는 상기 그래픽 객체를 신체의 제1 부위(예: 왼손)의 위치에 대응되며 상기 그래픽 객체와 연관된 제1 그래픽 객체로 변경할 수 있다. 제1 프로세서(320)는, 상기 컨트롤러로부터 제1 통신 모듈(390)을 통해 제2 제어 신호가 수신되면 상기 제2 제어 신호를 기반으로 신체의 제2 부위(예: 오른 손)에 접촉된 컨트롤러로의 위치 정보를 검출할 수 있다. 제1 프로세서(320)는 신체의 제2 부위(예:오른 손)에 접촉된 컨트롤러로의 위치 정보를 기반으로 컨트롤러에 대응되는 상기 그래픽 객체를 신체의 제2 부위(예: 오른 손)의 위치에 대응되며 상기 그래픽 객체와 연관된 제2 그래픽 객체로 변경할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 컨트롤러(예: 도 2의 220)로 부터 전원이 온 되었다는 신호가 수신되기 전에 디스플레이(360)에 컨트롤러에 대응되는 그래픽 객체를 표시하지 않거나, 또는 컨트롤러의 활성화 전 상태를 나태는 특정 그래픽 객체를 표시하거나 또는 컨트롤러에 대응되는 그래픽 객체의 투명도를 변경하여 표시할 수 있다.
일 실시예에 따르면, 상기 제1 제어 신호에 따라 표시되는 제1 그래픽 객체는 신체의 제1 부위 모드(예: 왼손 모드)를 위한 그래픽 객체로써, 컨트롤러(예: 도 2의 220)가 신체의 제1 부위(예: 왼손)에 접촉되었을 때 표시될 수 있는 컨트롤러의 형상을 나타내는 그래픽 객체를 포함할 수 있다. 상기 제2 제어 신호에 따라 표시되는 제2 그래픽 객체는 신체의 제2 부위 모드(예: 오른 손 모드)를 위한 그래픽 객체로써, 컨트롤러(예: 도 2의 220)가 신체의 제2 부위(예: 오른 손)에 접촉되었을 때 표시될 수 있는 컨트롤러의 형상을 나타내는 그래픽 객체를 포함할 수 있다.
예를 들어, 제1 프로세서(320)는, 전자 장치(301)의 디스플레이(360)의 중앙 위치에 컨트롤러(예: 도 2의 220)에 대응되는 그래픽 객체인 "총"을 표시하는 동안, 사용자가 컨트롤러를 왼손으로 파지하고 있음을 알리는 제1 제어 신호가 수신되면, 디스플레이의 적어도 일부 영역(예: 디스플레이 표시 영역의 중앙 영역, 이하 디스플레이의 중앙 영역)에 위치되어 있던 그래픽 객체인 "총"을 왼손이 잡았을 때의 위치로 변경한 제1 그래픽 객체인 "총"으로 표시할 수 있다. 또한 제1 프로세서(320)는, 전자 장치(301)의 디스플레이(360)의 중앙 위치에 컨트롤러(예: 도 2의 220)에 대응되는 그래픽 객체인 "총"을 표시하는 동안, 사용자가 컨트롤러를 오른 손으로 파지하고 있음을 알리는 제2 제어 신호가 수신되면, 디스플레이의 중앙 영역에 위치되어 있던 그래픽 객체인 "총"을 오른 손이 잡았을 때의 위치로 변경한 제2 그래픽 객체인 "총"으로 표시할 수 있다. 또한 제1 프로세서(320)는, 전자 장치(301)의 디스플레이(360)를 통해 제1 그래픽 객체인 "총"을 표시하는 동안 사용자가 컨트롤러를 오른 손으로 파지하고 있음을 알리는 제2 제어 신호가 수신되면, 디스플레이의 중앙 영역에 위치되어 있던 그래픽 객체인 "총"을 오른 손이 잡았을 때의 위치로 변경한 제2 그래픽 객체인 "총"으로 표시할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제 1 부위(예: 왼손)와 제2 부위(예: 오른 손)에 접촉된 컨트롤러로부터 제1 통신 모듈(390)을 통해 신체의 상기 제 1 부위와 상기 제2 부위에 접촉된 정보를 포함하는 제 3 제어 신호를 획득할 수 있다. 제1 프로세서(320)는 상기 제3 제어 신호에 적어도 일부 기반하여, 디스플레이(360)를 통해 신체의 제 1 부위의 위치와 신체의 제2 부위의 위치에 대응되는 제3 그래픽 객체를 표시할 수 있다. 예를 들어, 하나의 컨트롤러에 양 손(예: 신체의 제1 부위(예: 왼손)와 신체의 제2 부위(예: 오른손))이 접촉되는 경우, 제1 프로세서(320)는 양손이 접촉된 컨트롤러로부터 양 손이 접촉된 정보를 포함하는 제3 제어 신호를 수신하고, 디스플레이(360)를 통해 양 손이 접촉된 컨트롤러에 대응하는 제3 그래픽 객체를 표시할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는 제1 제어 신호의 수신에 따라 디스플레이(360)를 통해 신체의 제1 부위(예: 왼 손)의 위치에 대응되는 제1 그래픽 객체를 표시하는 제1 모드에서, 제2 제어 신호의 수신에 따라 신체의 제2 부위(예: 오른 손)의 위치에 대응되는 제2 그래픽 객체를 표시하기 위한 제2 모드로 전환할 때, 상기 제1 모드에서 상기 제2 모드로 전환하는 동안 애니매이션 등을 표시하여 객체의 변환을 부드럽게 표현할 수 있다.
제1 프로세서(320)는 신체의 특정 부위(예: 왼손 또는 오른 손)에 접촉된 컨트롤러(예: 도 2의 220)로 부터 신체의 특정 부위의 위치 및 컨트롤러(예:도 2의 220)의 움직임 정보를 포함하는 제어신호를 수신하며, 상기 제어 신호를 기반으로 상기 컨트롤러가 접촉된 신체의 특정 부위 및 상기 컨트롤러의 움직임 정보를 결정하고, 상기 신체의 특정 부위의 위치에 대응되는 그래픽 객체를 상기 컨트롤러의 움직임 정보를 기반으로 변경하여 디스플레이(360, 예: 도 1의 디스플레이(160) 및 도 2의 디스플레이(211))를 통해 표시할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 컨트롤러(예: 도 2의 220)로부터 제1 제어 신호가 수신되면, 상기 제1 제어 신호를 기반으로 컨트롤러에 대응되는 그래픽 객체를 신체의 제1 부위(예: 왼손)의 위치에 대응되며 상기 그래픽 객체와 연관된 제1 그래픽 객체로 변경하고, 상기 컨트롤러의 움직임 정보를 기반으로 상기 제1 그래픽 객체를 변경하여 표시할 수 있다.
일 실시예에 따르면, 제1 제어 신호는 컨트롤러가 접촉된 신체의 제1 부위를 나타내는 정보(예: 파지 패턴 정보 및 상기 컨트롤러의 움직임정보)를 포함할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 컨트롤러(예: 도 2의 220)로부터 제2 제어 신호가 수신되면, 상기 제2 제어 신호를 기반으로 컨트롤러에 대응되는 그래픽 객체를 신체의 제2 부위(예: 오른 손)의 위치에 대응되며, 상기 그래픽 객체와 연관된 제2 그래픽 객체로 변경하고, 상기 컨트롤러의 움직임 정보를 기반으로 상기 제2 그래픽 객체를 변경하여 표시할 수 있다.
일 실시예에 따르면, 제2 제어 신호는 컨트롤러가 접촉된 신체의 제2 부위를 나타내는 정보(예: 파지 패턴 정보 및 상기 컨트롤러의 움직임/ 회전정보)를 포함할 수 있다.
제1 프로세서(320)는 신체의 특정 부위(예: 왼손 또는 오른 손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 수신된 제어 신호에 적어도 일부 기반하여 컨트롤러가 접촉된 신체의 특정 부위의 위치 및 신체의 특정 부위의 크기를 결정하며, 상기 신체의 특정 부위의 위치에 대응되는 그래픽 객체 및 상기 신체의 특정 부위의 크기에 대응되는 신체 그래픽 객체(예: 손)를 디스플레이(360, 예: 도 1의 디스플레이(160) 및 도 2의 디스플레이(211))를 통해 표시할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제1 부위(예: 왼손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 제1 통신 모듈(390)을 통해 제1 제어 신호가 수신되면, 상기 제1 제어 신호에 적어도 일부 기반하여 신체의 제 1부위(예: 왼손)의 위치에 대응되는 제1 그래픽 객체를 결정하고, 신체의 제1 부위(예: 왼손)의 크기에 대응되는 제1 신체 그래픽 객체를 결정하며, 디스플레이(360)를 통해 상기 제1 신체 그래픽 객체가 잡고 있는 상기 제1 그래픽 객체를 표시할 수 있다.
일 실시예에 따르면, 제1 제어 신호는 컨트롤러(예: 도 2의 220)가 접촉된 신체의 제1 부위 및 신체의 제1 부위의 크기를 나타내는 정보(예:파지 패턴 정보)를 포함할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제2 부위(예: 오른손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 제1 통신 모듈(390)을 통해 제1 제어 신호가 수신되면, 상기 제1 제어 신호에 적어도 일부 기반하여 신체의 제 2 부위(예: 오른 손)의 위치에 대응되는 제2 그래픽 객체를 결정하고, 신체의 제2 부위(예: 오른 손)의 크기에 대응되는 제2 신체 그래픽 객체를 결정하며, 디스플레이(360)를 통해 상기 제2 신체 그래픽 객체가 잡고 있는 상기 제2 그래픽 객체를 표시할 수 있다.
일 실시예에 따르면, 제2 제어 신호는 컨트롤러(예: 도 2의 220)가 접촉된 신체의 제2 부위 및 신체의 제2 부위의 크기를 나타내는 정보(예: 파지 패턴 정보)를 포함할 수 있다.
제1 프로세서(320)는 신체의 특정 부위(예: 왼손 또는 오른 손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 수신된 제어 신호에 적어도 일부 기반하여 컨트롤러가 접촉된 신체의 특정 부위를 결정하고, 상기 신체의 특정 부위에 대응되는 그래픽 객체를 디스플레이(360, 예: 도 1의 디스플레이(160) 및 도 2의 디스플레이(211))를 통해 표시할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제1 부위(예: 왼손)에 접촉된 컨트롤러(예: 도 2의 220)로부터 제1 통신 모듈(390)을 통해 제1 제어 신호가 수신되면, 상기 제1 제어 신호에 적어도 일부 기반하여, 디스플레이(360)를 통해 신체의 제1 부위에 대응되는 제1 그래픽 객체를 표시할 수 있으며, 상기 제1 그래픽 객체는 제 1 신체 그래픽 객체(예: 도 8의 811a 또는 도 9의 913a)일 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는 신체의 제1 부위를 나타내는 제1 그래픽 객체(예: 제1 신체 그래픽 객체(왼손))를 표시하는 동안 상기 제1 제어 신호(예: 움직임 정보)를 기반으로 상기 제1 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 제3 그래픽 객체(예: 도 8의 801a 또는 도 8의 801b, 컨트롤러 그래픽 객체)를 표시할 수 있다.
일 실시예에 따르면, 제1 제어 신호는 컨트롤러(예: 도 2의 220)에 접촉된 신체의 제1 부위를 나타내는 정보(예: 센서 데이터에 기반한 파지(grip) 패턴 정보)를 포함할 수 있다. 다양한 실시예에 따르면, 제 1 제어 신호는 디스플레이(360)에 제 1 그래픽 객체를 표시하기 위한 정보를 포함할 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는, 신체의 제2 부위(예: 오른 손)가 접촉된 컨트롤러로부터 제1 통신 모듈(390)을 통해 제2 제어 신호가 수신되면, 상기 제2 제어 신호에 적어도 일부 기반하여, 디스플레이(360)를 통해 신체의 제2 부위에 대응되게 제2 그래픽 객체를 표시할 수 있으며, 상기 제2 그래픽 객체는 제 2 신체 그래픽 객체(예: 도 8의 813a 또는 도 9의 913b)일 수 있다.
일 실시예에 따르면, 제1 프로세서(320)는 신체의 제2 부위를 나타내는 제2 그래픽 객체(예: 제2 신체 그래픽 객체(오른손))를 표시하는 동안, 상기 제2 제어 신호(예: 움직임 정보를 기반으로 상기 제2 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 상기 제3 그래픽 객체를 표시할 수 있다. 일 실시예에 따르면, 제2 제어 신호는 컨트롤러(예: 도 2의 220)에 접촉된 신체의 제2 부위를 나타내는 정보(예: 파지 패턴 정보)를 포함할 수 있다. 다양한 실시예에 따르면, 제 1 제어 신호는 디스플레이(360)에 제 1 그래픽 객체를 표시하기 위한 정보를 포함할 수 있다.
메모리(330, 예: 도 1의 메모리(130))는 전자 장치(301)를 제어할 수 있는 프로그램을 저장하고, 디스플레이(360)를 통해 표시된 가상 공간을 제공하기 위한 데이터 및 가상의 그래픽 객체를 표시하기 위한 데이터를 저장할 수 있다.
가상 공간 제어 모듈(350)은 제1 프로세서(320)에 의해 제어되며, 컨텐트에 대응되는 가상 공간 데이터를 생성하여 디스플레이(360)를 통해 가상 공간을 제공할 수 있다. 가상 공간 제어 모듈(350)은 가상 공간에 배치하기 위한 대상 객체를 생성하여 배치하고, 상기 대상 객체를 조작할 수 있는 가상의 그래픽 객체를 생성하여 표시할 수 있다.
일 실시예에 따르면, 가상 공간 제어 모듈(350)은 제1 프로세서(320)의 제어 하에, 디스플레이(360)의 중앙 영역에 컨트롤러(예: 도 2의 220)에 대응되는 가상의 그래픽 객체를 생성하여 표시할 수 있다. 가상 공간 제어 모듈(350)은 제1 프로세서(320)의 제어 하에, 신체의 제1 부위에 대응되는 위치로 변경된 컨트롤러를 나타내는 제1 그래픽 객체를 생성하여 표시할 수 있다. 가상 공간 제어 모듈(350)은 제1 프로세서(320)의 제어 하에, 신체의 제2 부위에 대응되는 위치로 변경된 컨트롤러를 나타내는 제2 그래픽 객체를 생성하여 표시할 수 있다. 가상 공간 제어 모듈(350)은 제1 프로세서(320)의 제어 하에, 신체의 제1 부위에 대응되는 위치로 변경된 컨트롤러를 나타내는 제1 그래픽 객체와 신체의 제2 부위에 대응되는 위치로 변경된 컨트롤러를 나타내는 제2 그래픽 객체를 생성하여 표시할 수 있다.
예를 들어, 가상 공간 제어 모듈(350)은 제1 프로세서(320)의 제어 하에 사격 게임에 관련된 컨텐트를 가상 공간에서 제공하는 경우, 사격 게임을 위한 가상 공간을 생성하여 표시하고, 디스플레이(360)의 중앙 위치에 컨트롤러에 대응되는 그래픽 객체(예: 총)과 상기 그래픽 객체를 잡고 있는 신체 그래픽 객체(예: 손)을 생성하여 표시할 수 있다. 가상 공간 제어 모듈(350)은, 제1 프로세서(320)의 제어 하에 제1 신체 그래픽 객체(예: 왼손)가 잡고 있는 신체의 제1 부위(예: 왼손)의 위치에 대응되는 제1 그래픽 객체(예: 총)을 생성하여 표시하며, 컨트롤러의 움직임 정보를 기반으로 상기 제1 그래픽 객체의 변경하여 표시할 수 있다.
가상 공간 제어 모듈(350)은, 제1 프로세서(320)의 제어 하에 제2 신체 그래픽 객체(예: 오른 손)가 잡고 있는 신체의 제2 부위(예: 오른 손)의 위치에 대응되는 제2 그래픽 객체(예: 총)을 생성하여 표시하며, 컨트롤러의 움직임 정보를 기반으로 상기 제2 그래픽 객체의 변경하여 표시할 수 있다. 가상 공간 제어 모듈(350)은, 제1 프로세서(320)의 제어 하에 제1 신체 그래픽 객체(예: 왼손)와 제2 신체 그래픽 객체(예: 오른 손)가 동시에 잡고 있는 신체의 제1 부위(예: 왼손)의 위치와 신체의 제2 부위(예: 오른 손)의 위치에 대응되는 제3 그래픽 객체(예: 총)을 생성하여 표시하며, 컨트롤러의 움직임 정보를 기반으로 상기 제3 그래픽 객체의 변경하여 표시할 수 있다
제1 통신 모듈(390, 예: 도 1의 190)은 유선 통신 모듈과 무선 통신 모듈을 포함하며, 컨트롤러(예: 도 2의 220)와 유선 통신 또는 무선을 수행할 수 있다.
일 실시예에 따르면, 제1 통신 모듈(390)은 컨트롤러(예: 도 2의 220)의 제2 통신 모듈과 연결되어 컨트롤러의 제2 통신 모듈과 데이터 및 신호를 송수신할 수 있다.
일 실시예에 따르면, 제1 통신 모듈(390)은 컨트롤러(예: 도 2의 220)의 제2 통신 모듈로부터 수신되는 컨트롤러의 전원 온을 알리는 신호, 제1 내지 제3 제어신호가 수신되면, 상기 수신된 신호들을 제1 프로세서(320)에게 전송할 수 있다.
도 4는 다양한 실시예에 따른 컨트롤러의 구성도이다.
도 4를 참조하면, 컨트롤러(401, 예: 도 1의 전자 장치(102))는 제2 프로세서(420), 입력 부(450), 센서 부(476), 전원 부(489) 및 제2 통신 모듈(490)을 포함할 수 있다.
제2 프로세서(420)는 센서 부(476)로부터 수신된 신호(예: 제어 신호)를 기반으로 신체의 특정 부위에 접촉된 컨트롤러(401)의 위치 정보를 포함하는 제어 신호를 생성하여 제2 통신 모듈(490, 예: 도 1의 190)을 통해 전자 장치(예: 도 1의 101, 도 2의 210, 도 3의 301)에게 전송할 수 있다. 일 실시예에 따르면, 센서 부(476)로부터 수신되는 제어 신호는 제1 센서 부(476a)로부터 수신된 신호(예: 파지 패턴 정보) 및 제2 센서 부(476b)로부터 수신된 움직임 정보(예: 센서 데이터)를 포함할 수 있다.
일 실시예에 따르면, 제2 프로세서(420)는 제1 센서 부(476a)로부터 수신된 파지 신호를 기반으로 제1 파지 패턴 정보를 생성하고, 상기 제1 파지 패턴 정보를 기반으로 컨트롤러(401)가 신체의 제1 부위(예: 왼 손)에 접촉되었음을 알 수 있는 제1 제어 신호를 제2 통신 모듈(490)을 통해 전자 장치(예: 도 2의 210)에게 전송할 수 있다.
일 실시예에 따르면, 제2 프로세서(420)는 제1 센서 부(476a)로부터 수신된 파지 신호를 기반으로 제2 파지 패턴 정보를 생성하고, 상기 제2 파지 패턴 정보를 기반으로 컨트롤러(401)가 신체의 제2 부위(예: 오른 손)에 접촉되었음을 알 수 있는 제2 제어 신호를 제2 통신 모듈(490)을 통해 전자 장치(예: 도 2의 210)에게 전송할 수 있다.
일 실시예에 따르면, 제2 프로세서(420)는 제1 센서 부(476a)로부터 수신된 파지 신호를 기반으로 제1 파지 패턴 정보와 제2 파지 패턴 정보를 생성하고, 상기 제1 파지 패턴 정보 및 상기 제2 파지 패턴 정보를 기반으로 컨트롤러(401)가 신체의 제1 부위(예: 왼 손) 및 제2 부위(예: 오른 손)에 동시 접촉되었음을 알 수 있는 제3 제어 신호를 제2 통신 모듈(490)을 통해 전자 장치(예: 도 2의 210)에게 전송할 수 있다.
입력 부(450, 예: 도 1의 150)는 전자 장치의 디스플레이를 통해 표시되는 가상 공간 및 가상 그래픽 객체를 조작하기 위해 사용되며, 1 입력 부와 제2 입력 부를 포함할 수 있다. 상기 제1 입력 부는 터치 인식 패턴을 포함하고, 상기 제2 입력 부는 돔 키 구조로써 홈 키, 백 키 및 볼륨 키들을 포함할 수 있다.
센서 부(476, 예: 도 1의 176)는 제1 센서 부(476a)와 제2 센서 부(476b)를 포함하고, 컨트롤러(401)에 접촉되는 신체를 감지한 신호와, 컨트롤러(401)에 움직임/ 회전을 감지한 움직임 신호를 제2 프로세서(420)에게 전달할 수 있다. 상기 제1 센서 부(476a)는 적어도 하나의 제1 센서를 포함할 수 있으며, 상기 제1 센서 부(476a)는 상기 적어도 하나의 제1 센서를 통해 컨트롤러(401)에 접촉되는 신호의 특정 부위를 감지한 신호를 상기 제2 프로세서(420)에게 전달할 수 있다. 또는 상기 제1 센서 부(476a)는, 상기 제2 프로세서(420)에 의해 컨트롤러(401)에 접촉되는 신체의 특정 부위를 결정할 수 있도록, 상기 적어도 하나의 제1 센서를 통해 컨트롤러(401)에 접촉되는 신체를 감지한 신호를 제2 프로세서(420)에게 전달 할 수 있다.
제1 센서 부(476a)는 적어도 하나의 센서를 포함하고, 상기 적어도 하나의 센서는 컨트롤러(401)의 일렬 또는 특정 형태로 배치되어 있으며, 컨트롤러(401)의 파지 상태(예: 왼손 파지 또는 오른 손 파지)를 검출할 수 있으며, 파지 센서, 터치 센서, 열 센서 및 근접 센서들을 포함할 수 있다.
제2 센서 부(476b)는 컨트롤러(401)의 움직임 변화를 검출할 수 있으며, 각속도 센서, 지 자계 센서, 가속도 센서들을 포함할 수 있다. 상기 제 2 센서 부(476b)는 컨트롤러(401)의 하우징 내부에 실장 된 IC로 구성될 수 있다.
전원 부(489, 예: 도 1의 189 )는 컨트롤러(401)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
제2 통신 모듈(490, 예 도 1의 190)은 유선 통신 모듈과 무선 통신 모듈을 포함하며, 전자 장치(예: 도 2의 210)와 유선 통신 또는 무선을 수행할 수 있다.
일 실시예에 따르면, 제2 통신 모듈(490)은 전자 장치(예: 도 2의 210)의 제1 통신 모듈과 연결되어 전자 장치(예: 도 2의 210)의 제1 통신 모듈과 데이터 및 신호를 송수신할 수 있다.
일 실시예에 따르면, 제2 통신 모듈(490)은 전자 장치(예: 도 2의 210)의 제1 통신 모듈에게 컨트롤러(401)의 전원 온을 알리는 신호, 제1 내지 제3 제어신호를 전송할 수 있다.
도 5 a 내지 도 5b 및 도 6 내지 도 7은 다양한 실시예에 따른 컨트롤러의 센서 부 배치를 설명하기 위한 도면이다.
도 5a는 사용자의 파지를 인식하기 위한 적어도 하나의 센서(511a 내지 511d)가 배치되어 있는 컨트롤러(501, 예: 도 1의 전자 장치(102))의 정면도와 측면도를 나타내고 있다. 컨트롤러(501)에는 사용자의 파지 위치 또는 파지 상태(예: 파지 시 사용자의 손가락 마디 형태)를 인식하기 위한 적어도 하나의 센서(511a 내지 511d)가 배치되어 있으며, 상기 적어도 하나의 센서(511a 내지 511d)는 제1 입력 부(512)의 주위에 또는/ 및 컨트롤러(501)의 좌측 면과 우측 면에 배치될 수 있다.
예를 들어, 도 5b와 같이 사용자가 오른손으로 컨트롤러(501, 예: 도 1의 전자 장치(102))를 사용하는 경우, 컨트롤러(501)의 제1 입력 부(512)를 실행하거나, 또는 제1 입력 부(512)의 우측 면을 파지하는 사용자의 엄지를 적어도 하나의 센서(511a 내지 511b)를 통해 감지할 수 있다. 또한 컨트롤러(501)의 제1 입력 부(512)의 후면에 위치된 다른 입력 부(513)을 실행 하거나, 또는 제1 입력 부(512)의 상측 면 및 상측의 후면 부를 파지하는 사용자의 검지를 적어도 하나의 센서(511a 내지 511b)를 통해 감지할 수 있다. 또한 컨트롤러(501)의 본체부의 왼쪽 측면을 파지하는 사용자의 나머지 손가락을 적어도 하나의 센서(511a 내지 511d)를 통해 감지할 수 있다.
도 6과 같이, 적어도 하나의 센서(611a 내지 611c)각각은 가로 3열로 컨트롤러(601)에 배치될 수 있다.
도 7과 같이, 적어도 하나의 센서(711a 내지 711c)각각은 세로 3열로 컨트롤러(601)에 배치될 수 있다.
도 8은 다양한 실시 예에 따른 전자 장치에서 객체 표시를 제어하는 동작을 설명하기 위한 도면이다.
도 8과 같이, 사용자가 왼손(811)으로 컨트롤러(801, 예: 도 1의 전자 장치(102))를 파지하는 동안, 전자 장치(예: 도 2의 210, 도 3의 301)는 디스플레이(850)를 통해 왼손(811)에 대응되는 제1 신체 그래픽 객체(811a)가 컨트롤러(801)에 대응되는 제1 그래픽 객체(801a)를 잡고 있는 가상의 영상 데이터를 제공할 수 있다.
사용자가 컨트롤러(801)를 왼손(811)에서 오른 손(813)으로 이동하여 파지 하는 경우, 특정 조작이나 메뉴선택 없이, 전자 장치(예: 도 2의 210, 도 3의 301)는 디스플레이(850)를 통해 오른 손(813)에 대응되는 제2 신체 그래픽 객체(813a)가 컨트롤러(801)에 대응되는 제2 그래픽 객체(801b)를 잡고 있는 가상의 영상 데이터를 제공할 수 있다.
컨트롤러(801)는 컨트롤러(801)의 센서 부(예: 도 4의 센서부(476))를 통해 컨트롤러(801)가 왼손에서 오른 손으로 이동함을 감지할 수 있으며, 컨트롤러(801)에 대한 파지 상태의 변화 또는 파지 위치의 변화를 감지할 수 있다.
컨트롤러(801)는 컨트롤러(801)의 센서 부(예: 도 4의 센서부(476))를 통해 왼손에서 오른 손으로 컨트롤러(801)의 위치 변경을 산출하고, 전자 장치(예: 도 2의 전자 장치(210), 도 3의 전자 장치(301))는 컨트롤러(801)의 위치 변경이 확인되면 디스플레이(850)를 통해 컨트롤러(801)에 대응되는 제1 그래픽 객체(801a)를 제2 그래픽 객체(813a)로 변경하여 표시할 수 있다.
도 9a 내지 도 9b는 다양한 실시 예에 따른 전자 장치에서 객체 표시를 제어하는 동작을 설명하기 위한 도면이다.
도 9a 에서 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(210), 도 3의 전자 장치(301))는 컨트롤러(예: 도 1의 전자장치(102), 도 2의 컨트롤러(220), 도 4의 컨트롤러(401))에 대응되는 컨트롤러 그래픽 객체(901a, 901b)와 상기 컨트롤러를 파지하고 있는 사용자의 왼손에 대응되는 제 1 그래픽 객체(예: 제1 신체 그래픽 객체(913a)) 를 전자 장치의 디스플레이(950)에 표시할 수 있다. 또는 사용자의 오른 손에 대응되는 제 2 그래픽 객체(예: 제2 신체 그래픽 객체(913b)) 를 전자 장치의 디스플레이(950)에 표시할 수 있다. 상기 제 1 그래픽 객체 또는 제 2 그래픽 객체는 컨트롤러 그래픽 객체의 영역에 대응되는 위치에 렌더링되어 전자 장치의 디스플레이(950)에 표시할 수 있다. 상기 전자 장치는 가상현실에서 상기 컨트롤러의 위치와 회전 값 및 크기 등의 구체적인 상태 값을 반영하여 조정된 상태로 렌더링 된 컨트롤러 그래픽 객체 및 제1 그래픽 객체(901a)를 전자 장치의 디스플레이(950)에 표시할 수 있다.
일 실시예에 따르면, 상기 전자 장치가 사용자가 현재 컨트롤러를 파지하고 있지 않은 오른 손으로 컨트롤러를 이동시킨 것이 인식되었을 때, 도 9a의 제1 그래픽 객체(913a, 예: 제1 신체 그래픽 객체) 위치와 동일한 위치에 사용자의 오른 손에 대응되는 제2 그래픽 객체(913b, 예: 제2 신체 객체 그래픽 객체)를 렌더링 하여 표시하게 되면, 가상 공간에서 제공되는 그래픽 객체의 자연스러움이 박탈될 수 있다. 따라서 도 9b와 같이 파지 이동에 따라 컨트롤러에 대응되는 컨트롤 그래픽 객체(901a, 901b)의 위치에 사용자의 오른 손에 대응되는 제2 그래픽 객체(901b)을 렌더링 하여 표시하고, 가상현실에서 파지하고 있는 제2 그래픽 객체(901b)의 상태 값을 조정하여 제2 신체 그래픽 객체(901b)의 자연스러움을 유지할 수 있다.
도 10a 내지 도 10b는 다양한 실시 예에 따른 전자 장치에서 객체의 크기를 결정하는 동작을 설명하기 위한 도면이다.
도 10a를 참조하면, 컨트롤러(901, 예; 도 2의 컨트롤러(220), 도 4의 컨트롤러(401))에는 적어도 하나의 근접 센서가 일렬 또는 패턴들의 특정 형태로 배치될 수 있다. N개의 세트로 구성된 M개 라인의 근접 센서의 값은, N개의 행과 M개의 열로 구성된 행렬을 구성할 수 있다. 예를 들어 근접 센서(1011a, 1011b)를 5개의 세트로 구성된 2 개의 라인으로 구성하는 경우, 센서 값은 [[0, 1, 1, 1, 0], [0, 0, 0, 0, 0]] 과 같은 행렬의 값으로 나타날 수 있다. 상기 행렬의 값은 파지 패턴 정보로써 제어 신호에 포함되어 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(210), 도 3의 전자 장치(301))에게 전송될 수 있으며, 전자 장치는 제어 신호에 포함된 상기 행렬의 값을 기준으로 컨트롤러에 파지된 신체의 특정 부위(예: 왼손 및/또는 오른 손)을 검출할 수 있다. 또한 전자 장치는 상기 행렬의 값을 기반으로 검지의 바깥(a1)부터 소지의 바깥(b1)까지의 거리(d1)를 검출하고, 상기 검출된 거리(d1)를 컨트롤러를 파지하고 있는 사용자의 손의 크기/폭으로 결정할 수 있다. 전자 장치는 디스플레이를 통해 가상의 공간에서 표시될 신체 그래픽 객체를 상기 결정된 사용자의 손의 크기/폭에 대응되게 조정하여 표시할 수 있다.
도 10b를 참조하면, 컨트롤러(901, 예; 도 2의 220, 도 4의 401)에는 적어도 하나의 파지 센서가 일렬 또는 패턴들의 특정 형태로 배치될 수 있다. 파지 센서를 3 x 3의 형태의 배열로 컨트롤에 배치하는 경우, 2 번째 열의 센서 값에서 외각선(a2, b2)의 값을 검출할 수 있다
상기 검출된 외각선의 값은 파지 패턴 정보로써 제어 신호에 포함되어 전자 장치(예: 도 1의 101, 도 2의 210, 도 3의 301)에게 전송될 수 있으며, 전자 장치는 제어 신호에 포함된 상기 외각선의 값을 기반으로 컨트롤러를 파지하고 있는 손에서 검지의 중수 골과 기절 골의 접합부(a2)부터 소지의 중수 골과 기절 골의 접합부(b)까지의 거리(d2)를 검출할 수 있다. 전자 장치는 상기 검출된 거리(d2)를 컨트롤러를 파지하고 있는 사용자의 손의 크기/폭으로 결정할 수 있다. 전자 장치는 디스플레이를 통해 가상의 공간에서 표시될 신체 그래픽 객체를 상기 결정된 사용자의 손의 크기/폭에 대응되게 조정하여 표시할 수 있다.
다양한 실시예에 따르면, 전자 장치는, 디스플레이(예: 도 3의 360), 통신 모듈(예: 도 3의 제1 통신 모듈(390)) 및 프로세서(예: 도 1의 120, 도 3의 320)를 포함하고, 상기 프로세서는, 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하고, 상기 제1 제어신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하고, 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하고, 및 상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 프로세서(예: 도 1의 120, 도 3의 320)는, 상기 컨트롤러의 전원 온 신호를 상기 통신 모듈을 통해 획득하는 경우, 상기 디스플레이의 적어도 일부 영역에 상기 컨트롤러에 대응되는 그래픽 객체를 표시하고, 상기 제1 제어 신호에 적어도 일부 기반하여 신체의 상기 제1 부위에 접촉된 상기 컨트롤러의 제 1 위치 정보가 확인되는 경우, 상기 그래픽 객체와 연관된 상기 제1 그래픽 객체를 표시하며, 상기 제2 제어 신호에 적어도 일부 기반하여 신체의 상기 제2 부위에 접촉된 상기 컨트롤러의 제 2 위치 정보가 확인되는 경우, 상기 그래픽 객체와 연관된 상기 제2 그래픽 객체를 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 프로세서(예: 도 1의 120, 도 3의 320)는, 상기 제1 제어 신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임과 연관된 정보를 확인(identify)하는 경우, 상기 컨트롤러의 상기 움직임에 대응되도록 상기 제1 그래픽 객체를 변경하여 표시하고, 상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임과 연관된 정보를 확인하는 경우, 상기 컨트롤러의 움직임에 대응되도록 상기 제2 그래픽 객체를 변경하여 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 프로세서(예: 도 1의 120, 도 3의 320)는, 신체의 제 1 부위와 제2 부위에 접촉된 상기 컨트롤러로부터 상기 통신 모듈을 통해 신체의 상기 제 1 부위 및 상기 제2 부위에 접촉된 정보를 포함하는 제 3 제어 신호를 획득하고, 상기 제3 제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 상기 제 1 그래픽 객체 및 상기 제2 부위에 대응되는 상기 제2 그래픽 객체를 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 프로세서(예: 도 1의 120, 도 3의 320)는, 상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제1 부위의 제 1 크기를 결정하고, 상기 제 1 크기에 적어도 일부 기반하여 상기 제1 그래픽 객체에 접촉하는 제 1 신체 그래픽 객체의 크기를 변경하여 표시하고, 상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제2 부위의 제 2 크기를 결정하고, 상기 제 2 크기에 적어도 일부 기반하여 상기 제2 그래픽 객체에 접촉하는 제 2 신체 그래픽 객체의 크기를 변경하여 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 제1 그래픽 객체는 상기 제1 제어신호에 적어도 일부 기반하여 생성된 제1 신체 그래픽 객체를 나타내고, 상기 제2 그래픽 객체는 상기 제2 제어신호에 적어도 일부 기반하여 제2 신체 그래픽 객체를 나타낼 수 있다.
다양한 실시예에 따르면, 상기 제1 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제1 부위에 대응되는 제1 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 연관된 정보를 포함하고, 상기 제2 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제2 부위에 대응되는 제2 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 연관된 정보를 포함할 수 있다.
다양한 실시예에 따르면, 상기 프로세서(예: 도 1의 120, 도 3의 320)는, 가상 공간을 생성하여 상기 디스플레이를 통해 표시하고, 상기 가상공간에, 상기 컨트롤러에 대응되는 그래픽 객체와 신체의 상기 제1 부위에 대응되는 상기 제1 그래픽 객체를 표시하고, 및 상기 가상공간에, 상기 컨트롤러에 대응되는 상기 그래픽 객체와 신체의 상기 제2 부위에 대응되는 상기 제2 그래픽 객체를 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 헤드 마운드 디스플레이(Head-Mount Display) 장치를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치는, 센서 부(예: 도 4의 476), 통신 모듈(예: 도 4의 490); 및 프로세서(예: 도 4의 420)를 포함하고, 상기 프로세서는, 신체의 제 1 부위에 접촉된 상기 전자 장치를 기반으로 상기 센서 부로부터 제1 제어 신호를 획득하고, 다른 전자 장치에서 상기 제1 제어 신호를 기반으로 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하도록, 상기 통신 모듈을 통해 상기 제1 제어 신호를 상기 다른 전자 장치에게 전송하며, 신체의 제 2 부위에 접촉된 상기 전자 장치를 기반으로 상기 센서 부로부터 제2 제어 신호를 획득하며, 상기 다른 전자 장치에서 상기 제2 제어 신호를 기반으로 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록, 상기 통신 모듈을 통해 상기 제2 제어 신호를 상기 다른 전자 장치에게 전송하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 센서 부(예: 도 4의 476)는, 상기 전자 장치에 접촉되는 신체의 부위를 감지하는 제1 센서 부, 및 상기 전자 장치의 움직임과 연관된 신호를 감지하는 제2 센서 부를 포함할 수 있다.
다양한 실시예에 따르면, 상기 프로세서(예: 도 4의 420)는, 상기 센서 부로부터 수신된 신호를 기반으로 신체의 제1 부위에 접촉된 정보를 포함하는 제1 제어 신호를 생성하고, 상기 센서 부로부터 수신된 신호를 기반으로 신체의 제2 부위에 접촉된 정보를 포함하는 제2 제어 신호를 생성하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 제1 제어신호는, 상기 전자 장치의 제1 센서 부에 의해 감지된 신체의 상기 제1 부위에 대응되는 제1 파지 패턴정보와 상기 전자 장치의 제2 센서 부에 의해 감지된 상기 전자 장치의 움직임과 연관된 정보를 포함하고, 상기 제2 제어신호는, 상기 전자 장치의 제1 센서 부에 의해 감지된 신체의 상기 제2 부위에 대응되는 제2 파지 패턴정보와 상기 전자 장치의의 제2 센서 부에 의해 감지된 상기 전자 장치의 움직임과 연관된 정보를 포함할 수 있다.
도 11은 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다. 객체 표시 방법은 1101 동작 내지 1107 동작들을 포함할 수 있다. 객체 표시 방법은 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(210), 또는 도 3의 전자 장치(301)), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320)) 중의 적어도 하나에 의해 수행될 수 있다.
1101동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러(예: 도 2의 컨트롤러(220), 도 4의 컨트롤러(401))로부터 상기 컨트롤러가 신체의 제1 부위에 접촉되고 있음을 알리는 제1 제어 신호를 획득 할 수 있다.
일 실시 예에 따르면, 상기 제1 제어 신호는 컨트롤러의 센서 부에 감지된 신체의 제1 부위를 나타내는 파지 패턴 정보를 포함할 수 있다. 예를 들어, 상기 제1 제어 신호는 컨트롤러가 사용자의 왼손에 의해 파지되고 있음을 알리는 파지 패턴 정보를 포함할 수 있다.
1103동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제1 제어 신호를 기반으로 신체의 제1 부위에 대응되는 제1 그래픽 객체를 전자 장치의 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 3의 프로세서(320))는 상기 제1 제어 신호를 기반으로 컨트롤러를 파지하고 있는 사용자의 왼손의 위치에 컨트롤러에 대응되는 왼손 용 제1 그래픽 객체(예: 컨트롤러 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있으며, 상기 제1 그래픽 객체(예: 컨트롤러 그래픽 객체)의 영역에 대응되는 위치에 사용자의 왼손에 대응되는 제1 신체 그래픽 객체를 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 3의 프로세서(320))는 상기 제1 제어 신호를 기반으로 컨트롤러를 파지하고 있는 사용자의 왼손에 대응되는 제1 그래픽 객체(예: 제1 신체 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있으며, 상기 제1 그래픽 객체(예: 제1 신체 그래픽 객체)의 영역에 대응되는 위치에 상기 제1 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 제3 그래픽 객체(예: 컨트롤러 그래픽 객체)를 표시할 수 있다.
1105동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러(예: 도 2의 220, 도 4의 401)로부터 상기 컨트롤러가 신체의 제2 부위에 접촉되고 있음을 알리는 제2 제어 신호를 획득 할 수 있다.
일 실시 예에 따르면, 상기 제2 제어 신호는 컨트롤러의 센서 부에 감지된 신체의 제2 부위를 나타내는 파지 패턴 정보를 포함할 수 있다. 예를 들어, 상기 제1 제어 신호는 컨트롤러가 사용자의 오른 손에 의해 파지되고 있음을 알리는 파지 패턴 정보를 포함할 수 있다.
1107동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호를 기반으로 신체의 제2 부위에 대응되는 제2 그래픽 객체를 전자 장치의 디스플레이(예: 도 3의 360)를 통해 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호를 기반으로 컨트롤러를 파지하고 있는 사용자의 오른 손의 위치에 컨트롤러에 대응되는 오른손 용 제2 그래픽 객체(예: 컨트롤러 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있으며, 상기 제2 그래픽 객체(예: 컨트롤러 그래픽 객체)의 영역에 대응되는 위치에 사용자의 오른 손에 대응되는 제2 신체 그래픽 객체를 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호를 기반으로 컨트롤러를 파지하고 있는 사용자의 오른 손에 대응되는 제2 그래픽 객체(예: 제2 신체 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있으며, 상기 제2 그래픽 객체(예: 제2 신체 그래픽 객체)의 영역에 대응되는 위치에 상기 제2 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 상기 제3 그래픽 객체(예: 컨트롤러 그래픽 객체)를 표시할 수 있다.
도 12는 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다. 객체 표시 방법은 1201 동작 내지 1229 동작들을 포함할 수 있다. 객체 표시 방법은 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(210), 또는 도 3의 전자 장치(301)), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320)) 중의 적어도 하나에 의해 수행될 수 있다.
1201동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 통신 모듈(예: 도 3의 제1 통신 모듈(390)을 통해 컨트롤러(예: 도 2의 컨트롤러(220), 또는 도 4의 컨트롤러(401))로부터 컨트롤러의 전원의 온 되었음을 알리는 신호의 수신을 대기할 수 있다.
상기 1201동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 컨트롤러로부터 컨트롤러의 전원이 온 되었음을 알리는 신호가 수신되지 않으면, 1203동작에서 디스플레이(예: 도 3의 디스플레이(360))에 컨트롤러에 대응되는 그래픽 객체를 표시하지 않거나, 컨트롤러의 비활성화는 나타내는 그래픽 객체를 표시하거나 또는 컨트롤러에 대응되는 그래픽 객체의 투명도를 변경하여 표시할 수 있다.
상가 1201 동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 컨트롤러로부터 컨트롤러의 전원이 온 되었음을 알리는 신호가 수신되면, 1205동작에서 디스플레이(예: 도 3의 디스플레이(360))의 중앙 영역에 컨트롤러에 대응되는 그래픽 객체를 표시할 수 있다.
1207동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 통신 모듈(예: 도 3의 제1 통신 모듈(390))을 통해 컨트롤러(예: 도 2의 컨트롤러(210), 도 4의 컨트롤러(401))로부터 제1 제어 신호를 수신할 수 있다
1209동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제1 제어 신호에 포함된 신체의 제1 부위(예: 왼손)를 나타내는 제1 파지 패턴 정보를 기반으로, 디스플레이에서 그래픽 객체의 표시모드를 제1 모드(예: 왼손 모드)로 전환할 수 있다.
1211동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제1 제어 신호를 기반으로, 제1 모드(예: 왼손 모드)에 대응되는 제1 그래픽 객체를 디스플레이(예: 도 3의 디스플레이(360))에 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제1 제어신호를 기반으로, 컨트롤러에 대응되는 그래픽 객체를 제1 모드(예: 왼손 모드)에 대응되는 제1 그래픽 객체로 변경하여 디스플레이(예: 도 3의 디스플레이(360))에 표시할 수 있다. 이때 전자 장치는 제1 모드에 대응되는 제1 신체 그래픽 객체(예: 왼손)가 잡고 있는 제1 그래픽 객체를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제1 제어 신호를 기반으로, 신체의 제1 부위(예: 왼손)에 대응되는 제1 그래픽 객체(예: 제1 신체 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다. 이때 상기 제1 그래픽 객체(예: 제1 신체 그래픽 객체)의 영역에 대응되는 위치에 상기 제1 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 제3 그래픽 객체(예: 제1 모드용 컨트롤러 그래픽 객체)로 변경하여 표시할 수 있다.
1213동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제1 제어 신호에 포함된 컨트롤러의 움직임 정보에 대응되게 제1 그래픽 객체(예: 컨트롤러에 대응되는 제1 그래픽 객체 또는 제1 모드용 컨트롤러 그래픽 객체)를 변경하여 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러부터 신체의 제1 부위를 나타내는 제1 파지 패턴 정보와 컨트롤러의 움직임 정보를 포함하는 제1 제어신호를 주기적으로 수신할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러부터 신체의 제1 부위를 나타내는 제1 파지 패턴 정보와 컨트롤러의 움직임 정보를 포함하는 제1 제어신호를 수신 이후, 컨트롤러의 파지 변경이 있기 전까지 컨트롤러의 움직임 정보만을 포함하는 제1 제어신호를 수신할 수 있다.
1215동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 통신 모듈(예: 도 3의 제1 통신 모듈(390))을 통해 컨트롤러(예: 도 2의 컨트롤러(210), 도 4의 컨트롤러(401))로부터 제2 제어 신호를 수신할 수 있다,
1217동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호에 포함된 신체의 제2 부위(예: 오른 손)를 나타내는 제2 파지 패턴 정보를 기반으로, 디스플레이에서 그래픽 객체의 표시모드를 제2 모드(예: 오른 손 모드)로 전환할 수 있다.
1219동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호를 기반으로, 제2 모드(예: 오른 손 모드)에 대응되는 제2 그래픽 객체를 디스플레이(예: 도 3의 360)에 표시할 수 있다. 일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호를 기반으로, 컨트롤러에 대응되는 그래픽 객체를 제2 모드(예: 오른 손 모드)에 대응되는 제2 그래픽 객체로 변경하여 디스플레이(예: 도 3의 디스플레이(360))에 표시할 수 있다. 이때 전자 장치는 제2 모드에 대응되는 제2 신체 그래픽 객체(예: 오른 손)가 잡고 있는 제2 그래픽 객체를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호를 기반으로, 신체의 제2 부위(예: 오른 손)에 대응되는 제2 그래픽 객체(예: 제2 신체 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다. 이때 상기 제2 그래픽 객체(예: 제2 신체 그래픽 객체)의 영역에 대응되는 위치에 상기 제2 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 제3 그래픽 객체(예: 제2 모드용 컨트롤러 그래픽 객체)로 변경하여 표시할 수 있다.
1221동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제2 제어 신호에 포함된 컨트롤러의 움직임 정보에 대응되게 상기 제2 그래픽 객체(예: 컨트롤러에 대응되는 제2 그래픽 객체 또는 제2 모드용 컨트롤러 그래픽 객체)를 변경하여 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러부터 신체의 제2 부위를 나타내는 제2 파지 패턴 정보와 컨트롤러의 움직임 정보를 포함하는 제1 제어신호를 주기적으로 수신할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러부터 신체의 제2 부위를 나타내는 제2 파지 패턴 정보와 컨트롤러의 움직임 정보를 포함하는 제2 제어신호를 수신 이후, 컨트롤러의 파지 변경이 있기 전까지 컨트롤러의 움직임 정보만을 포함하는 제2 제어신호를 수신할 수 있다.
1223동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 통신 모듈(예: 도 3의 제1 통신 모듈(390))을 통해 컨트롤러(예: 도 2의 컨트롤러(210), 또는 도 4의 컨트롤러(401))로부터 제3 제어 신호를 수신할 수 있다
1225동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제3 제어 신호에 포함된 신체의 제1 부위(예: 왼손)를 나타내는 제1 파지 패턴 정보 및 신체의 제1 부위(예: 오른 손)을 나타내는 제2 파지 패턴 정보를 기반으로, 디스플레이에서 그래픽 객체의 표시모드를 제3 모드(예: 양손 모드)로 전환할 수 있다.
1227동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제3 제어 신호를 기반으로, 제3 모드(예: 양손 모드)에 대응되는 제3 그래픽 객체를 디스플레이(예: 도 3의 디스플레이(360))을 통해 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제3 제어 신호를 기반으로, 컨트롤러에 대응되는 그래픽 객체를 제1 모드(예: 왼손 모드)에 대응되는 제3 그래픽 객체로 변경하여 디스플레이(예: 도 3의 360)에 표시할 수 있다. 이때 전자 장치는 제3 모드에 대응되는 제1 신체 그래픽 객체(예: 왼손) 및 제2 신체 그래픽 객체(예: 오른 손)가 동시에 잡고 있는 제3 그래픽 객체를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제3 제어 신호를 기반으로, 신체의 제1 부위(예: 왼손)에 대응되는 제1 그래픽 객체(예: 제1 신체 그래픽 객체)와 신체의 제2 부위(예: 오른 손)에 대응되는 제2 그래픽 객체(예: 제2 신체 그래픽 객체)를 디스플레이(예: 도 3의 디스플레이(360))를 통해 표시할 수 있다. 이때 상기 제1 그래픽 객체(예: 제1 신체 그래픽 객체)의 영역 및 상기 제2 그래픽 객체(예: 제2 신체 그래픽 객체)의 영역에 대응되는 위치에 상기 제1 그래픽 객체 및 상기 제2 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 제3 그래픽 객체(예: 제3 모드용 컨트롤러 그래픽 객체)로 변경하여 표시할 수 있다.
1229동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제3 제어 신호에 포함된 컨트롤러의 움직임 정보에 대응되게 상기 제3 그래픽 객체((예: 컨트롤러에 대응되는 제3 그래픽 객체 또는 제3 모드용 컨트롤러 그래픽 객체)를 변경하여 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러부터 신체의 제1 부위를 나타내는 제1 파지 패턴 정보, 신체의 제2 부위를 나타내는 제2 파지 패턴 정보 및 컨트롤러의 움직임 정보를 포함하는 제3 제어신호를 주기적으로 수신할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러부터 신체의 제1 부위를 나타내는 제1 파지 패턴 정보, 신체의 제2 부위를 나타내는 제2 파지 패턴 정보 및 컨트롤러의 움직임 정보를 포함하는 제3 제어신호를 수신 이후, 컨트롤러의 파지 변경이 있기 전까지 컨트롤러의 움직임 정보만을 포함하는 제3 제어신호를 수신할 수 있다.
도 13은 다양한 실시 예에 따른 전자 장치에서 객체 표시의 제어방법을 나타내는 흐름도이다. 객체 표시 방법은 1301 동작 내지 1311 동작들을 포함할 수 있다. 객체 표시 방법은 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(210), 또는 도 3의 전자 장치(301)), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320)) 중의 적어도 하나에 의해 수행될 수 있다.
1301동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 통신 모듈(예: 제1 통신 모듈(390))을 통해 컨트롤러(예: 도 2의 220, 도 4의 401)로부터 상기 컨트롤러의 전원이 온 되었음을 알리는 신호를 수신할 수 있다.
1303동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 컨트롤러에 대응되는 그래픽 객체를 전자 장치의 디스플레이(예: 도 3의 360)를 통해 표시할 수 있다.
1305동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 모듈(예: 제1 통신 모듈(390))을 통해 컨트롤러(예: 도 2의 컨트롤러(220), 도 4의 컨트롤러(401))로부터 제어 신호를 수신할 수 있다.
1307동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제어 신호를 기반으로 신체의 어느 부위가 컨트롤러를 파지하고 있는지 결정하고 컨트롤러에 대응되는 객체를 표시할 수 있는 모드를 결정할 수 있다.
예를 들어 상기 제어 신호가 신체의 제1 부위가 컨트롤러를 파지하고 있는지 나타내는 제1 파지 패턴 정보를 포함하는 제1 제어 신호인 경우, 상기 제1 제어 신호에 포함된 신체의 제1 부위(예: 왼손)를 나타내는 제1 파지 패턴 정보를 기반으로 디스플레이에서 그래픽 객체의 표시 모드를 제1 모드(예: 왼손 모드)로 결정할 수 있다.
예를 들어 상기 제어 신호가 신체의 제2 부위가 컨트롤러를 파지하고 있는지 나타내는 제2 파지 패턴 정보를 포함하는 제2 제어 신호인 경우, 상기 제2 제어 신호에 포함된 신체의 제2 부위(예: 오른 손)를 나타내는 제2 파지 패턴 정보를 기반으로 디스플레이에서 그래픽 객체의 표시모드를 제2 모드(예: 오른 손 모드)로 결정할 수 있다.
예를 들어 상기 제어 신호가 신체의 제1 부위와 제2 부위가 컨트롤러를 파지하고 있는지 나타내는 제1 파지 패턴 정보 및 제2 파지 패턴 정보를 포함하는 제3 제어 신호인 경우, 상기 제3 제어 신호에 포함된 신체의 제1 부위(예: 왼 손)를 나타내는 제1 파지 패턴 정보 및 신체의 제2 부위(예: 오른 손)를 나타내는 제2 파지 패턴 정보를 기반으로 디스플레이에서 그래픽 객체의 표시모드를 제3 모드(예: 양손 모드)로 결정할 수 있다.
1309동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 제어 신호를 기반으로 컨트롤러에 대응되는 그래픽 객체에 접촉되는 신체 그래픽 객체의 크기를 결정할 수 있다. 상기 1309동작에서, 전자 장치는 상기 제어 신호에 포함된 신체의 특정 부위가 컨트롤러를 파지하고 있는지 나타내는 파지 패턴 정보를 기반으로 신체의 특정 부위(예: 손)의 크기를 결정하고, 상기 신체의 특정 부위(예: 손)에 대응되는 신체 그래픽 객체의 크기를 결정할 수 있다.
1311동작에서, 전자 장치(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 상기 결정된 모드(예: 제1 모드(왼손 모드), 제2 모드(오른 손 모드) 또는 제3 모드(양손 모드))에서 상기 크기가 결정된 신체의 특정 부위(예: 손)에 대응되는 신체 그래픽 객체가 컨트롤러에 대응되는 그래픽 객체를 잡고 있는 가상의 영상 데이터를 디스플레이(예: 도 3의 360)를 통해 표시할 수 있다.
도 14는 다양한 실시 예에 따른 컨트롤러에서 제어 신호의 전송 방법을 나타내는 흐름도이다. 제어 신호의 전송 방법은 1401 동작 내지 1405 동작들을 포함할 수 있다. 제어 신호의 전송 방법은 컨트롤러(예: 도 2의 컨트롤러(220), 도 4의 컨트롤러(401)) 또는 컨트롤러의 적어도 하나의 프로세서(예: 도 4의 프로세서(420)) 중의 적어도 하나에 의해 수행될 수 있다.
1401동작에서, 컨트롤러(예: 도 4의 프로세서(420))는, 제1 센서 부(예: 도 4의 제1 센서부(476a))로부터 수신되는 센서 값을 기반으로 상기 컨트롤러에 파지된 신체의 특정 부위를 알리는 파지 패턴 정보를 검출할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 센서 값을 기반으로, 신체의 제1 부위(예: 왼손)이 컨트롤러에 파지되었음을 알리는 제1 파지 패턴 정보, 또는 신체의 제2 부위(예: 오른 손)이 컨트롤러에 파지되었음을 알리는 제2 파지 패턴 정보를 검출할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 검출된 파지 패턴 정보를 기반으로 컨트롤러를 파지하고 있는 신체의 부위에 따른 모드를 결정할 수 있다. 예를 들어, 컨트롤러는, 상기 검출된 파지 패턴 정보가 신체의 제1 부위를 나타내는 제1 파지 패턴 정보이면 제1 모드(예: 왼손 모드)로 결정하고, 상기 검출된 파지 패턴 정보가 신체의 제2 부위를 나타내는 제2 파지 패턴 정보이면 제2 모드(예: 오른 손 모드)로 결정하며, 상기 검출된 파지 패턴 정보가 신체의 제1 부위 및 제2 부위를 동시에 나타내는 제3 파지 패턴 정보이면 제3 모드(예: 양손 모드)로 결정할 수 있다.
1403동작에서, 컨트롤러(예: 도 4의 프로세서(420))는, 제2 센서 부(예: 도 4의 476b)로부터 수신되는 센서 값을 기반으로 상기 컨트롤러의 움직인/회전 정보를 검출할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제1 부위(예: 왼손)를 나타내는 제1 모드에서, 제2 센서 부(예: 도 4의 제2 센서부(476b))로부터 수신되는 센서 값을 기반으로 상기 컨트롤러의 움직인/회전 정보를 검출할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제2 부위(예: 오른 손)를 나타내는 제2 모드에서, 제2 센서 부(예: 도 4의 제2 센서부(476b))로부터 수신되는 센서 값을 기반으로 상기 컨트롤러의 움직인/회전 정보를 검출할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제1 부위(예: 왼손) 및 신체의 제2 부위(예: 오른 손)임을 나타내는 제3 모드에서, 제2 센서 부(예: 도 4의 제2 센서부(476b))로부터 수신되는 센서 값을 기반으로 상기 컨트롤러의 움직인/회전 정보를 검출할 수 있다.
1405동작에서, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 파지 패턴 정보 또는 상기 컨트롤러의 움직임 정보를 포함하는 제어 신호를 통신 모듈(예: 도 4의 제2 통신 모듈(490))을 통해 전자 장치(예: 도 2의 전자 장치(210), 또는 도 3의 전자 장치(301))에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제1 부위(예: 왼손)를 나타내는 제1 모드에서, 신체의 제1 부위에 의해 컨트롤러가 파지되고 있음을 나타내는 제1 파지 패턴 정보를 포함하는 제1 제어 신호를 전자 장치에게 전송한 이후, 제1 모드가 다른 모드로 변경되기 전 까지 컨트롤러의 움직임 정보만을 포함하는 제1 제어 신호를 전자 장치에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제1 부위(예: 왼손)를 나타내는 제1 모드에서, 신체의 제1 부위에 의해 컨트롤러가 파지되고 있음을 나타내는 제1 파지 패턴 정보 및 컨트롤러의 움직임 정보를 포함하는 제1 제어 신호를 전자 장치에게 전송한 이후, 제1 모드가 다른 모드로 변경되기 전 까지 컨트롤러의 움직임 정보만을 포함하는 제1 제어 신호를 전자 장치에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제2 부위(예: 오른 손)를 나타내는 제2 모드에서, 신체의 제2 부위에 의해 컨트롤러가 파지되고 있음을 나타내는 제2 파지 패턴 정보를 포함하는 제2 제어 신호를 전자 장치에게 전송한 이후, 제2 모드가 다른 모드로 변경되기 전 까지 컨트롤러의 움직임 정보만을 포함하는 제2 제어 신호를 전자 장치에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제2 부위(예: 오른 손)를 나타내는 제2 모드에서, 신체의 제2 부위에 의해 컨트롤러가 파지되고 있음을 나타내는 제2 파지 패턴 정보 및 컨트롤러의 움직임 정보를 포함하는 제2 제어 신호를 전자 장치에게 전송한 이후, 제2 모드가 다른 모드로 변경되기 전 까지 컨트롤러의 움직임 정보만을 포함하는 제2 제어 신호를 전자 장치에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제1 부위(예: 왼손) 및 신체의 제2 부위(예: 오른 손)임을 나타내는 제3 모드에서, 신체의 제1 부위 및 제2 부위에 의해 컨트롤러가 파지되고 있음을 나타내는 제3 파지 패턴 정보를 포함하는 제3 제어 신호를 전자 장치에게 전송한 이후, 제3 모드가 다른 모드로 변경되기 전 까지 컨트롤러의 움직임 정보만을 포함하는 제3 제어 신호를 전자 장치에게 전송할 수 있다.
일 실시예에 따르면, 컨트롤러(예: 도 4의 프로세서(420))는, 상기 컨트롤러를 파지하고 있는 신체의 제1 부위(예: 왼손) 및 신체의 제2 부위(예: 오른 손)임을 나타내는 제3 모드에서, 신체의 제1 부위 및 제2 부위에 의해 컨트롤러가 파지되고 있음을 나타내는 제3 파지 패턴 정보 및 컨트롤러의 움직임 정보를 포함하는 제3 제어 신호를 전자 장치에게 전송한 이후, 제3 모드가 다른 모드로 변경되기 전 까지 컨트롤러의 움직임 정보만을 포함하는 제3 제어 신호를 전자 장치에게 전송할 수 있다.
다양한 실시예에 따르면, 전자 장치에서 객체 표시의 제어방법은, 상기 전자 장치에 포함된 통신 모듈을 통해 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하는 동작, 상기 제1 제어 신호에 적어도 일부 기반하여, 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체 및 상기 제1 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 표시하는 동작, 상기 통신 모듈을 통해 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하는 동작, 및 상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제2그래픽 객체 및 상기 제2 그래픽 와 관련하여 상기 제 3 그래픽 객체를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 컨트롤러의 전원 온 신호를 상기 통신 모듈을 통해 획득하는 경우, 기 디스플레이의 적어도 일부 영역에 상기 컨트롤러에 대응되는 상기 제3 그래픽 객체를 표시하는 동작, 상기 제1 제어 신호에 적어도 일부 기반하여 신체의 상기 제1 부위에 접촉된 상기 컨트롤러의 제1 위치 정보가 확인되는 경우, 상기 제 1 그래픽 객체 및 상기 제1 그래픽과 관련하여 상기 제3 그래픽 객체를 표시하는 동작, 및 상기 제2 제어 신호에 적어도 일부 기반하여 신체의 상기 제2 부위에 접촉된 상기 컨트롤러의 제2 위치 정보가 확인되는 경우, 상기 제 2 그래픽 객체 및 상기 제2 그래픽 객체와 관련하여 상기 제3 그래픽 객체를 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임 과 연관된 정보를 확인하는 경우, 상기 컨트롤러의 상기 움직임에 대응되도록 상기 제3 그래픽 객체를 변경하여 표시하는 동작, 및 상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임과 연관된 정보를 확인하는 경우, 상기 컨트롤러의 상기 움직임에 대응되도록 상기 제3 그래픽 객체를 변경하여 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 신체의 제 1 부위와 제2 부위에 접촉된 컨트롤러로부터 상기 통신 모듈을 통해 신체의 상기 제 1 부위와 상기 제2 부위에 접촉된 정보를 포함하는 제 3 제어 신호를 획득하는 동작, 및 상기 제3 제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 상기 제 1 그래픽 객체, 상기 제2 부위에 대응되는 상기 제2 그래픽 객체 및 상기 제1 그래픽 객체와 상기 제2 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 상기 제3 그래픽 객체를 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제1 부위의 제1 크기를 결정하고, 상기 제1 크기에 적어도 일부 기반하여 상기 제1 그래픽 객체의 크기를 변경하여 표시하는 동작, 및 상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제2 부위의 제2 크기를 결정하고, 상기 제2 크기에 적어도 일부 기반하여 상기 제2 그래픽 객체의 의 크기를 변경하여 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 제1 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제1 부위에 대응되는 제1 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 연관된 정보를 포함하고, 상기 제2 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제2 부위에 대응되는 제2 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 관련된 정보를 포함할 수 있다.
다양한 실시예에 따르면, 가상 공간을 생성하여 상기 디스플레이를 통해 표시하는 동작, 상기 가상공간에, 상기 제 1 부위에 대응하는 제 1 그래픽 객체 및 상기 제1 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 생성하여 표시하는 동작, 및 상기 가상공간에, 상기 제 2 부위에 대응하는 제 2 그래픽 객체 및 상기 제2 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 생성하여 표시하는 동작을 더 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 전자 장치에 포함된 통신 모듈을 통해 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하는 동작, 상기 제1 제어 신호에 적어도 일부 기반하여, 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체 및 상기 제1 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 표시하는 동작, 상기 통신 모듈을 통해 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하는 동작, 및 상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제2그래픽 객체 및 상기 제2 그래픽 와 관련하여 상기 제 3 그래픽 객체를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
Claims (20)
- 전자 장치에 있어서,
디스플레이;
통신 모듈; 및
프로세서를 포함하고, 상기 프로세서는,
신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하고,
상기 제1 제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하고,
신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 통신 모듈을 통해 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하고, 및
상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록 설정된 전자 장치.
- 제 1 항에 있어서, 상기 프로세서는,
상기 컨트롤러의 전원 온 신호를 상기 통신 모듈을 통해 획득하는 경우, 상기 디스플레이의 적어도 일부 영역에 상기 컨트롤러에 대응되는 그래픽 객체를 표시하고,
상기 제1 제어 신호에 적어도 일부 기반하여 신체의 상기 제1 부위에 접촉된 상기 컨트롤러의 제 1 위치 정보가 확인되는 경우, 상기 그래픽 객체와 연관된 상기 제1 그래픽 객체를 표시하며,
상기 제2 제어 신호에 적어도 일부 기반하여 신체의 상기 제2 부위에 접촉된 상기 컨트롤러의 제 2 위치 정보가 확인되는 경우, 상기 그래픽 객체와 연관된 상기 제2 그래픽 객체를 표시하도록 설정된 전자 장치.
- 제 1 항에 있어서, 상기 프로세서는,
상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임과 연관된 정보를 확인(identify)하는 경우, 상기 컨트롤러의 상기 움직임에 대응되도록 상기 제1 그래픽 객체를 변경하여 표시하고,
상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임과 연관된 정보를 확인하는 경우, 상기 컨트롤러의 움직임에 대응되도록 상기 제2 그래픽 객체를 변경하여 표시하도록 설정된 전자 장치.
- 제 1 항에 있어서, 상기 프로세서는,
신체의 제 1 부위와 제2 부위에 접촉된 상기 컨트롤러로부터 상기 통신 모듈을 통해 신체의 상기 제 1 부위 및 상기 제2 부위에 접촉된 정보를 포함하는 제 3 제어 신호를 획득하고,
상기 제3 제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 상기 제 1 그래픽 객체 및 상기 제2 부위에 대응되는 상기 제2 그래픽 객체를 표시하도록 설정된 전자 장치.
- 제 1 항에 있어서, 상기 프로세서는,
상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제1 부위의 제 1 크기를 결정하고, 상기 제 1 크기에 적어도 일부 기반하여 상기 제1 그래픽 객체에 접촉하는 제 1 신체 그래픽 객체의 크기를 변경하여 표시하고,
상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제2 부위의 제 2 크기를 결정하고, 상기 제 2 크기에 적어도 일부 기반하여 상기 제2 그래픽 객체에 접촉하는 제 2 신체 그래픽 객체의 크기를 변경하여 표시하도록 설정된 전자 장치.
- 제 1 항에 있어서,
상기 제1 그래픽 객체는 상기 제1 제어신호에 적어도 일부 기반하여 생성된 제1 신체 그래픽 객체를 나타내고,
상기 제2 그래픽 객체는 상기 제2 제어신호에 적어도 일부 기반하여 제2 신체 그래픽 객체를 나타내는 전자 장치.
- 제 1 항에 있어서,
상기 제1 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제1 부위에 대응되는 제1 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 연관된 정보를 포함하고,
상기 제2 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제2 부위에 대응되는 제2 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 연관된 정보를 포함하는 전자 장치.
- 제 1 항에 있어서, 상기 프로세서는,
가상 공간을 생성하여 상기 디스플레이를 통해 표시하고,
상기 가상공간에, 상기 컨트롤러에 대응되는 그래픽 객체와 신체의 상기 제1 부위에 대응되는 상기 제1 그래픽 객체를 표시하고, 및
상기 가상공간에, 상기 컨트롤러에 대응되는 상기 그래픽 객체와 신체의 상기 제2 부위에 대응되는 상기 제2 그래픽 객체를 표시하도록 설정된 전자 장치.
- 제 1 항에 있어서,
상기 전자 장치는 헤드 마운드 디스플레이(Head-Mount Display) 장치를 포함하는 전자 장치.
- 전자 장치에서 객체 표시의 제어방법에 있어서,
상기 전자 장치에 포함된 통신 모듈을 통해 신체의 제 1 부위에 접촉된 컨트롤러로부터 상기 제 1 부위에 접촉된 정보를 포함하는 제 1 제어 신호를 획득하는 동작;
상기 제1 제어 신호에 적어도 일부 기반하여, 디스플레이를 통해 상기 제 1 부위에 대응하는 제 1 그래픽 객체 및 상기 제1 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 표시하는 동작;
상기 통신 모듈을 통해 신체의 제 2 부위에 접촉된 상기 컨트롤러로부터 상기 제 2 부위에 접촉된 정보를 포함하는 제 2 제어 신호를 획득하는 동작; 및
상기 제 2제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 2 부위에 대응하는 제2그래픽 객체 및 상기 제2 그래픽 와 관련하여 상기 제 3 그래픽 객체를 표시하는 동작을 포함하는 방법.
- 제 10 항에 있어서,
상기 컨트롤러의 전원 온 신호를 상기 통신 모듈을 통해 획득하는 경우, 기 디스플레이의 적어도 일부 영역에 상기 컨트롤러에 대응되는 상기 제3 그래픽 객체를 표시하는 동작;
상기 제1 제어 신호에 적어도 일부 기반하여 신체의 상기 제1 부위에 접촉된 상기 컨트롤러의 제1 위치 정보가 확인되는 경우, 상기 제 1 그래픽 객체 및 상기 제1 그래픽과 관련하여 상기 제3 그래픽 객체를 표시하는 동작; 및
상기 제2 제어 신호에 적어도 일부 기반하여 신체의 상기 제2 부위에 접촉된 상기 컨트롤러의 제2 위치 정보가 확인되는 경우, 상기 제 2 그래픽 객체 및 상기 제2 그래픽 객체와 관련하여 상기 제3 그래픽 객체를 표시하는 동작을 더 포함하는 방법.
- 제 10 항에 있어서,
상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임 과 연관된 정보를 확인하는 경우, 상기 컨트롤러의 상기 움직임에 대응되도록 상기 제3 그래픽 객체를 변경하여 표시하는 동작; 및
상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러의 움직임과 연관된 정보를 확인하는 경우, 상기 컨트롤러의 상기 움직임에 대응되도록 상기 제3 그래픽 객체를 변경하여 표시하는 동작을 더 포함하는 방법.
- 제 10 항에 있어서,
신체의 제 1 부위와 제2 부위에 접촉된 컨트롤러로부터 상기 통신 모듈을 통해 신체의 상기 제 1 부위와 상기 제2 부위에 접촉된 정보를 포함하는 제 3 제어 신호를 획득하는 동작; 및
상기 제3 제어 신호에 적어도 일부 기반하여, 상기 디스플레이를 통해 상기 제 1 부위에 대응하는 상기 제 1 그래픽 객체, 상기 제2 부위에 대응되는 상기 제2 그래픽 객체 및 상기 제1 그래픽 객체와 상기 제2 그래픽 객체와 관련하여 상기 컨트롤러에 대응되는 상기 제3 그래픽 객체를 표시하는 동작을 더 포함하는 방법.
- 제 10 항에 있어서,
상기 제1 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제1 부위의 제1 크기를 결정하고, 상기 제1 크기에 적어도 일부 기반하여 상기 제1 그래픽 객체의 크기를 변경하여 표시하는 동작; 및
상기 제2 제어신호에 적어도 일부 기반하여 상기 컨트롤러가 접촉된 신체의 제2 부위의 제2 크기를 결정하고, 상기 제2 크기에 적어도 일부 기반하여 상기 제2 그래픽 객체의 의 크기를 변경하여 표시하는 동작을 더 포함하는 방법.
- 제 10 항에 있어서,
상기 제1 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제1 부위에 대응되는 제1 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 연관된 정보를 포함하고,
상기 제2 제어신호는, 컨트롤러의 제1 센서 부에 의해 감지된 신체의 상기 제2 부위에 대응되는 제2 파지 패턴정보와 컨트롤러의 제2 센서 부에 의해 감지된 상기 컨트롤러의 움직임과 관련된 정보를 포함하는 방법.
- 제 10 항에 있어서,
가상 공간을 생성하여 상기 디스플레이를 통해 표시하는 동작;
상기 가상공간에, 상기 제 1 부위에 대응하는 제 1 그래픽 객체 및 상기 제1 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 생성하여 표시하는 동작; 및
상기 가상공간에, 상기 제 2 부위에 대응하는 제 2 그래픽 객체 및 상기 제2 그래픽 객체 관련하여 상기 컨트롤러에 대응하는 제 3 그래픽 객체를 생성하여 표시하는 동작을 더 포함하는 방법.
- 전자 장치에 있어서,
센서 부;
통신 모듈; 및
프로세서를 포함하고, 상기 프로세서는,
신체의 제 1 부위에 접촉된 상기 전자 장치를 기반으로 상기 센서 부로부터 제1 제어 신호를 획득하고,
다른 전자 장치에서 상기 제1 제어 신호를 기반으로 상기 제 1 부위에 대응하는 제 1 그래픽 객체를 표시하도록, 상기 통신 모듈을 통해 상기 제1 제어 신호를 상기 다른 전자 장치에게 전송하며,
신체의 제 2 부위에 접촉된 상기 전자 장치를 기반으로 상기 센서 부로부터 제2 제어 신호를 획득하며,
상기 다른 전자 장치에서 상기 제2 제어 신호를 기반으로 상기 제 2 부위에 대응하는 제 2 그래픽 객체를 표시하도록, 상기 통신 모듈을 통해 상기 제2 제어 신호를 상기 다른 전자 장치에게 전송하도록 설정된 전자 장치.
- 제 17 항에 있어서, 상기 센서 부는,
상기 전자 장치에 접촉되는 신체의 부위를 감지하는 제1 센서 부; 및
상기 전자 장치의 움직임과 연관된 신호를 감지하는 제2 센서 부를 포함하는 전자 장치.
- 제 17 항에 있어서, 상기 프로세서는,
상기 센서 부로부터 수신된 신호를 기반으로 신체의 제1 부위에 접촉된 정보를 포함하는 제1 제어 신호를 생성하고,
상기 센서 부로부터 수신된 신호를 기반으로 신체의 제2 부위에 접촉된 정보를 포함하는 제2 제어 신호를 생성하도록 설정된 전자 장치.
- 제17 항에 있어서,
상기 제1 제어신호는, 상기 전자 장치의 제1 센서 부에 의해 감지된 신체의 상기 제1 부위에 대응되는 제1 파지 패턴정보와 상기 전자 장치의 제2 센서 부에 의해 감지된 상기 전자 장치의 움직임과 연관된 정보를 포함하고,
상기 제2 제어신호는, 상기 전자 장치의 제1 센서 부에 의해 감지된 신체의 상기 제2 부위에 대응되는 제2 파지 패턴정보와 상기 전자 장치의의 제2 센서 부에 의해 감지된 상기 전자 장치의 움직임과 연관된 정보를 포함하는 전자 장치.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180023533A KR102656447B1 (ko) | 2018-02-27 | 2018-02-27 | 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 |
EP19761629.5A EP3721326A4 (en) | 2018-02-27 | 2019-01-25 | GRAPHIC OBJECT DISPLAY PROCESS DIFFERENTLY ACCORDING TO A PART OF A BODY IN CONTACT WITH A CONTROL DEVICE AND ELECTRONIC DEVICE |
PCT/KR2019/001065 WO2019168272A1 (en) | 2018-02-27 | 2019-01-25 | Method of displaying graphic object differently according to body portion in contact with controller, and electronic device |
CN201980010981.9A CN111656306B (zh) | 2018-02-27 | 2019-01-25 | 根据与控制器接触的身体部分不同地显示图形对象的方法和电子装置 |
US16/287,811 US10814219B2 (en) | 2018-02-27 | 2019-02-27 | Method of displaying graphic object differently according to body portion in contact with controller, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180023533A KR102656447B1 (ko) | 2018-02-27 | 2018-02-27 | 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190102715A true KR20190102715A (ko) | 2019-09-04 |
KR102656447B1 KR102656447B1 (ko) | 2024-04-12 |
Family
ID=67684990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180023533A KR102656447B1 (ko) | 2018-02-27 | 2018-02-27 | 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10814219B2 (ko) |
EP (1) | EP3721326A4 (ko) |
KR (1) | KR102656447B1 (ko) |
CN (1) | CN111656306B (ko) |
WO (1) | WO2019168272A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021261829A1 (ko) * | 2020-06-22 | 2021-12-30 | 삼성전자 주식회사 | 밝기 조절 방법 및 hmd 장치 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2571748B (en) | 2018-03-07 | 2022-11-23 | Bae Systems Plc | A method and system for measuring the bending of rowing oars |
TWD197306S (zh) * | 2018-05-15 | 2019-05-01 | 宏碁股份有限公司 | 運動控制器 |
TWD197307S (zh) * | 2018-05-15 | 2019-05-01 | 宏碁股份有限公司 | 運動控制器 |
TWD197308S (zh) * | 2018-05-31 | 2019-05-01 | 宏碁股份有限公司 | 運動控制器 |
US10824244B2 (en) * | 2018-11-19 | 2020-11-03 | Facebook Technologies, Llc | Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces |
JP2021089693A (ja) * | 2019-12-06 | 2021-06-10 | 未來市股▲ふん▼有限公司 | 行動ベースの構成方法及び行動ベースの構成システム |
US11947119B2 (en) * | 2020-02-17 | 2024-04-02 | Sony Group Corporation | Display control device, display control method, and recording medium |
US11947736B1 (en) * | 2022-12-21 | 2024-04-02 | Varjo Technologies Oy | Utilising focussing of light sources in image for controller tracking |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170354864A1 (en) * | 2016-06-11 | 2017-12-14 | Sony Interactive Entertainment Inc. | Directional Interface Object |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7280097B2 (en) * | 2005-10-11 | 2007-10-09 | Zeetoo, Inc. | Human interface input acceleration system |
JP5293154B2 (ja) * | 2008-12-19 | 2013-09-18 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
JP5201015B2 (ja) * | 2009-03-09 | 2013-06-05 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
US20110034248A1 (en) * | 2009-08-07 | 2011-02-10 | Steelseries Hq | Apparatus for associating physical characteristics with commands |
KR101674939B1 (ko) | 2010-01-07 | 2016-11-10 | 엘지전자 주식회사 | 인터페이스 설정 방법 및 그 방법을 채용한 디지털 방송 수신기 |
JP5962085B2 (ja) * | 2012-03-15 | 2016-08-03 | ソニー株式会社 | 表示制御装置、その制御方法およびプログラム |
US8880223B2 (en) * | 2012-07-16 | 2014-11-04 | Florida Institute for Human & Maching Cognition | Anthro-centric multisensory interface for sensory augmentation of telesurgery |
KR101365614B1 (ko) * | 2012-08-23 | 2014-03-12 | 엘지전자 주식회사 | 외부 전자 디바이스와 커넥티트된 멀티미디어 디바이스 및 그 제어 방법 |
KR102035134B1 (ko) * | 2012-09-24 | 2019-10-22 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
JP6024515B2 (ja) * | 2013-02-28 | 2016-11-16 | ソニー株式会社 | 情報処理装置および記憶媒体 |
US9908048B2 (en) * | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
GB201310373D0 (en) * | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable Apparatus and systems |
KR102120104B1 (ko) * | 2013-12-05 | 2020-06-09 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR102135586B1 (ko) * | 2014-01-24 | 2020-07-20 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
JP6355978B2 (ja) * | 2014-06-09 | 2018-07-11 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
KR102227290B1 (ko) * | 2014-06-18 | 2021-03-15 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR102184272B1 (ko) * | 2014-06-25 | 2020-11-30 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
KR20160048429A (ko) * | 2014-10-24 | 2016-05-04 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR102411868B1 (ko) * | 2014-11-28 | 2022-06-23 | 삼성전자주식회사 | 전자장치 및 그래픽 오브젝트 표시 방법 |
GB201500545D0 (en) * | 2015-01-14 | 2015-02-25 | Mvr Global Ltd | Controller for computer entertainment system |
WO2016140924A1 (en) * | 2015-03-01 | 2016-09-09 | Tactical Haptics | Embedded grasp sensing devices, systems, and methods |
US9678566B2 (en) * | 2015-06-03 | 2017-06-13 | Oculus Vr, Llc | Hand-held controllers for virtual reality system |
US10776618B2 (en) * | 2015-11-19 | 2020-09-15 | Lg Electronics Inc. | Mobile terminal and control method therefor |
KR102086941B1 (ko) * | 2016-05-12 | 2020-03-11 | 서크 코퍼레이션 | 정전식 센싱을 이용한 컨트롤러 예감 |
-
2018
- 2018-02-27 KR KR1020180023533A patent/KR102656447B1/ko active IP Right Grant
-
2019
- 2019-01-25 CN CN201980010981.9A patent/CN111656306B/zh active Active
- 2019-01-25 EP EP19761629.5A patent/EP3721326A4/en active Pending
- 2019-01-25 WO PCT/KR2019/001065 patent/WO2019168272A1/en unknown
- 2019-02-27 US US16/287,811 patent/US10814219B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170354864A1 (en) * | 2016-06-11 | 2017-12-14 | Sony Interactive Entertainment Inc. | Directional Interface Object |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021261829A1 (ko) * | 2020-06-22 | 2021-12-30 | 삼성전자 주식회사 | 밝기 조절 방법 및 hmd 장치 |
US11989353B2 (en) | 2020-06-22 | 2024-05-21 | Samsung Electronics Co., Ltd. | Brightness adjustment method and HMD device |
Also Published As
Publication number | Publication date |
---|---|
KR102656447B1 (ko) | 2024-04-12 |
WO2019168272A1 (en) | 2019-09-06 |
CN111656306B (zh) | 2024-03-05 |
EP3721326A4 (en) | 2020-12-16 |
US20190262697A1 (en) | 2019-08-29 |
EP3721326A1 (en) | 2020-10-14 |
US10814219B2 (en) | 2020-10-27 |
CN111656306A (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102656447B1 (ko) | 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 | |
US10814220B2 (en) | Method for controlling display of electronic device using multiple controllers and device for the same | |
US11442274B2 (en) | Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device | |
KR20200028771A (ko) | 사용자 의도 기반 제스처 인식 방법 및 장치 | |
EP3570144A1 (en) | Electronic device for providing vr/ar content | |
US20200264684A1 (en) | Electronic device and method for controlling operation of display in same | |
US11954324B2 (en) | Method for performing virtual user interaction, and device therefor | |
KR20220086939A (ko) | 전자 장치 및 전자 장치의 동작 방법 | |
US12056286B2 (en) | Electronic device for providing augmented reality service and operating method thereof | |
US11822728B2 (en) | Electronic device and operation method thereof | |
KR20200066962A (ko) | 사용자의 움직임에 기반하여 콘텐트를 제공하기 위한 전자 장치 및 방법 | |
KR20210022921A (ko) | 슬라이딩 동작되는 전자 장치 | |
KR20190099923A (ko) | 전자장치 및 전자장치의 사용상태에 기반한 외부 전자장치의 제어방법 | |
KR20220081136A (ko) | 복수의 센서를 이용한 전자 장치의 제어 방법 및 그 전자 장치 | |
KR20210112662A (ko) | 외부 전자 장치의 어플리케이션을 제어하는 방법 및 이를 지원하는 전자 장치 | |
KR102717796B1 (ko) | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
US11431900B2 (en) | Image data processing method and device therefor | |
US20240303949A1 (en) | Method for providing user interface and wearable electronic device for supporting the same | |
KR102716974B1 (ko) | 증강 장치를 제어하는 방법 및 이를 수행하는 전자 장치 | |
KR20210136659A (ko) | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
KR20240037121A (ko) | 사용자의 외부 환경을 촬영하는 컨트롤 장치 및 그 동작 방법 및 컨트롤 장치와 연결된 머리 착용형 전자 장치 | |
KR20220121574A (ko) | Ar/vr 환경을 제공하는 전자 장치 및 그 운용 방법 | |
KR20220075857A (ko) | 증강 현실 장치, 증강 현실 장치와 상호작용하는 전자 장치, 및 그 제어 방법 | |
KR20220064153A (ko) | 결합 가능한 홈을 구비하는 전자 장치 | |
KR20210045154A (ko) | 전자 장치 및 이를 이용한 키 입력에 따른 전자 장치의 키 운용 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |