KR102185576B1 - Smart controler, apparatus for controling user terminal, and method for controling user terminal - Google Patents

Smart controler, apparatus for controling user terminal, and method for controling user terminal Download PDF

Info

Publication number
KR102185576B1
KR102185576B1 KR1020180171058A KR20180171058A KR102185576B1 KR 102185576 B1 KR102185576 B1 KR 102185576B1 KR 1020180171058 A KR1020180171058 A KR 1020180171058A KR 20180171058 A KR20180171058 A KR 20180171058A KR 102185576 B1 KR102185576 B1 KR 102185576B1
Authority
KR
South Korea
Prior art keywords
manipulation
user
user terminal
smart controller
information
Prior art date
Application number
KR1020180171058A
Other languages
Korean (ko)
Other versions
KR20200080996A (en
Inventor
기예지
김주현
유가희
이혜민
Original Assignee
주식회사 엔씨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엔씨소프트 filed Critical 주식회사 엔씨소프트
Priority to KR1020180171058A priority Critical patent/KR102185576B1/en
Publication of KR20200080996A publication Critical patent/KR20200080996A/en
Application granted granted Critical
Publication of KR102185576B1 publication Critical patent/KR102185576B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Abstract

스마트 컨트롤러, 사용자 단말 제어 장치 및 방법이 개시된다. 본 발명의 일 실시예에 따른 스마트 컨트롤러는 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러에 있어서, 상기 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하는 조작 감지부; 및 상기 사용자의 조작과 관련된 조작 정보를 사용자 단말로 제공하는 조작 정보 제공부를 포함한다.Disclosed is a smart controller, an apparatus and a method for controlling a user terminal. A smart controller according to an embodiment of the present invention is a polyhedral smart controller including a plurality of surfaces, comprising: a manipulation detection unit configured to detect a user's manipulation of at least one of the plurality of surfaces; And an operation information providing unit that provides operation information related to the user's operation to a user terminal.

Description

스마트 컨트롤러, 사용자 단말 제어 장치 및 사용자 단말 제어 방법{SMART CONTROLER, APPARATUS FOR CONTROLING USER TERMINAL, AND METHOD FOR CONTROLING USER TERMINAL}Smart controller, user terminal control device, and user terminal control method {SMART CONTROLER, APPARATUS FOR CONTROLING USER TERMINAL, AND METHOD FOR CONTROLING USER TERMINAL}

개시되는 스마트 컨트롤러, 사용자 단말 제어 장치 및 사용자 단말 제어 방법과 관련된다.It relates to a disclosed smart controller, a user terminal control device, and a user terminal control method.

최근 디지털 시대에 이르러 사용자들이 수많은 디지털 기기에 둘러싸여 있다. 이러한 디지털 기기들은 키보드, 리모컨 등의 다양한 컨트롤러에 의하여 조작될 수 있다. 그러나, 이러한 컨트롤러들은 하나의 면 위에 작은 조작 버튼을 여러 개 구비하고 있어, 사용자가 그 조작 버튼을 누르는데 불편함이 있다. 예를 들어, 사용자가 어떠한 작업에 집중하고 있는데 디지털 기기를 잠깐 조작하여야 하는 일이 발생된 경우, 사용자는 컨트롤러의 각각의 작은 조작 버튼들이 디지털 기기의 어떤 기능을 컨트롤하는지 섬세하게 살펴본 이후에서야 원하는 조작 버튼을 누를 수 있기 때문에, 사용자는 순간적인 컨트롤러의 조작이 불가능하며 본래 수행 중인 작업에 대한 집중력이 저하될 수 있다. 또한, 이렇게 조작 버튼들의 크기가 작을 경우에는 사용자가 본래 수행 중인 작업에 너무 집중하고 있어 본래 조작하여야 하는 조작 버튼과 상이한 조작 버튼을 누르게 될 수 있기 때문에 디지털 기기의 컨트롤의 실패로 인한 2차적인 피해가 발생될 수 있다.In the recent digital age, users are surrounded by numerous digital devices. These digital devices can be operated by various controllers such as a keyboard and a remote control. However, since these controllers have several small operation buttons on one surface, it is inconvenient for the user to press the operation button. For example, if a user is concentrating on a certain task and a brief manipulation of a digital device occurs, the user must carefully examine what functions of the digital device are controlled by each of the small control buttons on the controller. Since the button can be pressed, the user cannot momentarily operate the controller, and concentration on the task being originally performed may be reduced. In addition, if the size of the control buttons is small, the user concentrates too much on the work being performed, and the user may press the operation button different from the operation button that must be operated. May occur.

한편, 최근, 초고속 데이터 통신망의 발달로 대규모 다중 사용자 온라인 롤 플레잉 게임(MMORPG: Massive Multiplayer Online Role Playing Game), 롤 플레잉 게임(RPG: Role Play Game), 보드 게임, 시뮬레이션 게임 등 온라인 게임의 개발 속도 및 보급 속도가 급격하게 증가하고 있다. MMORPG나 RPG 게임의 경우, 사용자들은 게임 내 캐릭터를 직접 조작하지 않더라도 게임 내 자동 사냥 모드를 이용하여 게임을 진행시킬 수 있다. 이러한 방식으로, 사용자는 게임 내 캐릭터에 대한 조작을 직접 하지 않더라도 캐릭터의 경험치를 올릴 수 있고 게임 내 아이템을 획득할 수도 있다. 이러한 편의성으로 인해 사용자들은 자동 사냥 모드를 이용하여 게임을 진행시키는 방식을 많이 활용하고 있다.Meanwhile, with the recent development of high-speed data communication networks, the speed of development of online games such as massive multiplayer online role-playing games (MMORPG), role-playing games (RPGs), board games, and simulation games. And the rate of spread is rapidly increasing. In the case of an MMORPG or RPG game, users can proceed with the game using the in-game automatic hunting mode even if they do not directly manipulate the in-game character. In this way, the user can increase the experience value of the character and obtain in-game items even if the user does not directly manipulate the in-game character. Due to this convenience, users often use a method of playing games using an automatic hunting mode.

사용자는 게임 진행 상황에 따라 게임을 순간적으로 조작하여야 하는 이벤트가 발생될 수 있다. 예를 들어, 게임 내 사용자의 캐릭터가 죽을 염려가 있는 경우에 사용자는 캐릭터가 물약을 먹도록 하여야 하거나 캐릭터가 마을로 귀환하도록 게임을 조작하여야 한다. 그러나, 사용자가 자동 사냥 모드를 통해 게임을 진행시키고 다른 작업에 집중하고 있는 경우, 앞서 말한 바와 같이 사용자는 순간적인 게임의 조작이 불가능하며 본래 수행 중인 작업에 대한 집중력이 저하되고, 게임 조작의 실패로 인한 2차적인 피해가 발생될 수 있다.An event may occur in which the user must momentarily manipulate the game according to the game progress. For example, if there is a risk of the user's character in the game dying, the user must have the character eat a potion or manipulate the game so that the character returns to the village. However, if the user proceeds the game through the automatic hunting mode and concentrates on other tasks, as mentioned above, the user cannot operate the game instantaneously, the concentration on the original task is lowered, and the game operation fails. Secondary damage may occur.

이러한 문제들을 개선하기 위해 디지털 기기들을 컨트롤하기 위한 다른 형태의 입력장치들의 개발이 절실한 상황이다.In order to improve these problems, it is urgent to develop other types of input devices for controlling digital devices.

개시되는 실시예들에 따르면, 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러에 있어서, 상기 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하는 조작 감지부; 및 상기 사용자의 조작과 관련된 조작 정보를 사용자 단말로 제공하는 조작 정보 제공부를 포함하는, 스마트 컨트롤러가 제공된다.According to disclosed embodiments, there is provided a polyhedral smart controller including a plurality of surfaces, comprising: a manipulation detection unit configured to detect a user's manipulation of at least one of the plurality of surfaces; And an operation information providing unit for providing operation information related to the user's operation to a user terminal.

상기 사용자의 조작은, 터치 및 드래그 중 적어도 하나를 포함할 수 있다.The user's manipulation may include at least one of a touch and a drag.

상기 조작 정보는, 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나와 관련된 정보를 포함할 수 있다.The manipulation information may include information related to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type on the manipulation target surface.

상기 복수의 면 중 최상단에 위치하는 최상단면을 감지하는 최상단면 감지부를 더 포함하며, 상기 조작 정보 제공부는, 상기 최상단면과 관련된 정보를 상기 사용자 단말로 제공할 수 있다.A top surface detection unit for detecting an uppermost surface of the plurality of surfaces, and the manipulation information providing unit may provide information related to the uppermost surface to the user terminal.

상기 스마트 컨트롤러의 움직임을 감지하는 움직임 감지부를 더 포함하고, 상기 조작 정보 제공부는, 상기 움직임과 관련된 움직임 정보를 상기 사용자 단말로 제공할 수 있다.A motion detection unit for detecting a motion of the smart controller may be further included, and the manipulation information providing unit may provide motion information related to the motion to the user terminal.

상기 사용자의 조작에 기초하여 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시키는 신호 발생부를 더 포함할 수 있다.The signal generator may further include a signal generator that generates at least one of a visual signal and an audible signal based on the user's manipulation.

상기 사용자 단말로부터 이벤트 정보를 수신하는 이벤트 정보 수신부를 더 포함하며, 상기 신호 발생부는, 상기 이벤트 정보에 기초하여 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시킬 수 있다.Further comprising an event information receiving unit for receiving event information from the user terminal, wherein the signal generator may generate at least one of a visual signal and an audible signal based on the event information.

개시되는 다른 실시예들에 따르면, 사용자 단말에 포함되는 사용자 단말 제어 장치에 있어서, 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러로부터 상기 복수의 면 중 하나 이상에 대한 사용자의 조작과 관련된 조작 정보를 수신하는 조작 정보 수신부; 및 상기 조작 정보에 대응되는 기능을 식별하고, 상기 식별된 기능이 실행되도록 상기 사용자 단말을 제어하는 사용자 단말 제어부를 포함하는, 사용자 단말 제어 장치가 제공된다.According to other disclosed embodiments, in the user terminal control apparatus included in the user terminal, operation information related to a user's manipulation of at least one of the plurality of surfaces is received from a polyhedral smart controller including a plurality of surfaces. An operation information receiving unit to receive; And a user terminal control unit that identifies a function corresponding to the operation information and controls the user terminal to execute the identified function.

상기 조작 정보에 대응되는 기능은, 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나에 따라 상이할 수 있다.The function corresponding to the manipulation information may be different according to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type of the manipulation target surface.

상기 조작 정보에 대응되는 기능은, 상기 사용자 단말에 실행중인 프로그램에 따라 상이할 수 있다.The function corresponding to the operation information may be different according to a program running on the user terminal.

상기 조작 정보 수신부는, 상기 스마트 컨트롤러로부터 상기 스마트 컨트롤러의 움직임과 관련된 움직임 정보를 수신하며, 상기 사용자 단말 제어부는, 상기 움직임 정보에 대응되는 기능을 식별하고, 상기 식별된 기능이 실행되도록 상기 사용자 단말을 제어할 수 있다.The operation information receiving unit receives movement information related to the movement of the smart controller from the smart controller, and the user terminal control unit identifies a function corresponding to the movement information, and the user terminal to execute the identified function. Can be controlled.

미리 설정된 이벤트가 발생된 경우, 상기 이벤트와 관련된 이벤트 정보를 상기 스마트 컨트롤러로 제공하는 이벤트 정보 제공부를 더 포함할 수 있다.When a preset event occurs, an event information providing unit providing event information related to the event to the smart controller may be further included.

개시되는 또 다른 실시예들에 따르면, 사용자 단말에 의해 수행되는 사용자 단말 제어 방법에 있어서, 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러로부터 상기 복수의 면 중 하나 이상에 대한 사용자의 조작과 관련된 조작 정보를 수신하는 동작; 상기 조작 정보에 대응되는 기능을 식별하는 동작; 및 상기 식별된 기능이 실행되도록 상기 사용자 단말을 제어하는 동작을 포함하는, 사용자 단말 제어 방법이 제공된다.According to another disclosed embodiment, in a method for controlling a user terminal performed by a user terminal, an operation related to a user's manipulation of at least one of the plurality of surfaces from a polyhedral smart controller including a plurality of surfaces Receiving information; Identifying a function corresponding to the operation information; And controlling the user terminal to execute the identified function.

상기 조작 정보에 대응되는 기능은, 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나에 따라 상이할 수 있다.The function corresponding to the manipulation information may be different according to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type of the manipulation target surface.

상기 조작 정보에 대응되는 기능은, 상기 사용자 단말에 실행중인 프로그램에 따라 상이할 수 있다.The function corresponding to the operation information may be different according to a program running on the user terminal.

상기 스마트 컨트롤러로부터 상기 스마트 컨트롤러의 움직임과 관련된 움직임 정보를 수신하는 동작; 상기 움직임 정보에 대응되는 기능을 식별하는 동작; 및 상기 식별된 기능이 실행되도록 상기 사용자 단말을 제어하는 동작을 더 포함할 수 있다.Receiving motion information related to the motion of the smart controller from the smart controller; Identifying a function corresponding to the motion information; And controlling the user terminal to execute the identified function.

미리 설정된 이벤트가 발생된 경우, 상기 이벤트와 관련된 이벤트 정보를 상기 스마트 컨트롤러로 제공하는 동작을 더 포함할 수 있다.When a preset event occurs, the operation of providing event information related to the event to the smart controller may be further included.

도 1은 일 실시예에 따른 스마트 컨트롤러 시스템의 구성도이다.
도 2는 일 실시예에 따른 스마트 컨트롤러의 블록도이다.
도 3은 추가적인 일 실시예에 따른 스마트 컨트롤러의 블록도이다.
도 4는 추가적인 다른 실시예에 따른 스마트 컨트롤러의 블록도이다.
도 5는 추가적인 또 다른 실시예에 따른 스마트 컨트롤러의 블록도이다.
도 6은 일 실시예에 따른 사용자 단말 제어 장치의 블록도이다.
도 7은 추가적인 일 실시예에 따른 사용자 단말 제어 장치의 블록도이다.
도 8은 일 실시예에 따른 사용자 단말 제어 방법의 흐름도이다.
도 9는 추가적인 일 실시예에 따른 사용자 단말 제어 방법의 흐름도이다.
1 is a block diagram of a smart controller system according to an embodiment.
2 is a block diagram of a smart controller according to an embodiment.
3 is a block diagram of a smart controller according to an additional embodiment.
4 is a block diagram of a smart controller according to an additional embodiment.
5 is a block diagram of a smart controller according to still another embodiment.
6 is a block diagram of an apparatus for controlling a user terminal according to an exemplary embodiment.
Fig. 7 is a block diagram of an apparatus for controlling a user terminal according to an additional embodiment.
8 is a flowchart of a method for controlling a user terminal according to an embodiment.
9 is a flowchart of a method for controlling a user terminal according to an additional embodiment.

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, a specific embodiment of the present invention will be described with reference to the drawings. The following detailed description is provided to aid in a comprehensive understanding of the methods, devices, and/or systems described herein. However, this is only an example and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, when it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention and may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification. The terms used in the detailed description are only for describing embodiments of the present invention, and should not be limiting. Unless explicitly used otherwise, expressions in the singular form include the meaning of the plural form. In this description, expressions such as "comprising" or "feature" are intended to refer to certain features, numbers, steps, actions, elements, some or combination thereof, and one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, actions, elements, any part or combination thereof.

이하에서 "게임"이란, 한 명 또는 그 이상의 게이머들이 게이밍 디바이스에 탑재되거나 연결된 입력장치를 이용하여 즐길 수 있는 소프트웨어를 의미한다. 통상 플레이어 캐릭터를 직접 조작하거나, 게임 내 오브젝트의 움직임을 조작하는 등의 방식으로 진행되며, 롤플레잉, 어드벤쳐, 아케이드 등으로 장르가 구분되기도 한다. Hereinafter, "game" means software that one or more gamers can enjoy using an input device mounted on or connected to a gaming device. Usually, the player character is directly manipulated or the movement of objects in the game is manipulated, and the genre is divided into role-playing, adventure, and arcade.

이하에서 "게이밍 디바이스"란 게임 소프트웨어를 실행하되 입력장치를 통한 사용자의 입력에 따라 연산을 수행하며, 출력장치를 통해 결과를 출력하는 하드웨어를 의미한다. 예컨대, 개인용 컴퓨터(Personal Computer), 랩탑(Laptop Computer), 게임 콘솔(Game Console), 스마트폰(Smart Phone), 타블렛(Tablet) PC, 스마트 밴드(Smart Band)나 스마트 와치(Smart Watch) 등의 웨어러블 디바이스(Wearable Device)의 형태일 수 있다. 이외에도 상기 정의를 만족하는 하드웨어라면 게이밍 디바이스에 속하는 것으로 해석된다.Hereinafter, “gaming device” refers to hardware that executes game software, performs an operation according to a user's input through an input device, and outputs a result through an output device. For example, Personal Computer, Laptop Computer, Game Console, Smart Phone, Tablet PC, Smart Band or Smart Watch, etc. It may be in the form of a wearable device. In addition, any hardware that satisfies the above definition is interpreted as belonging to a gaming device.

이하에서 "온라인 게임"이란, 게임의 플레이를 위하여 네트워크를 경유하여야 하는 게임을 의미한다. 통상 원격지의 둘 이상의 게이밍 디바이스가 네트워크를 통해 서로 연결되거나, 서버를 통해 동기화되어 즐기는 게임을 의미한다. 상기의 정의를 만족하는 것이라면 게임을 실행하는 게이밍 디바이스의 형태에 제한을 두지 아니한다. 개인용 컴퓨터나 게임 콘솔에서 실행되는 게임뿐만 아니라, 스마트폰과 같은 모바일에서 실행되는 게임, 또는 서로 다른 복수개의 게이밍 디바이스(서로 다른 종류의 게이밍 디바이스도 포함한다)가 연동되거나 클라우드에서 실행되는 게임 또한 상기 정의를 만족하는 것이라면 온라인 게임에 속하는 것으로 해석된다.Hereinafter, the term "online game" means a game that must be passed through a network in order to play the game. Usually, it means a game in which two or more gaming devices in a remote location are connected to each other through a network or synchronized through a server. If it satisfies the above definition, there is no restriction on the type of gaming device that executes the game. In addition to games running on personal computers or game consoles, games running on mobile devices such as smartphones, or games running in the cloud or in conjunction with a plurality of different gaming devices (including different types of gaming devices) are also mentioned above. Anything that satisfies the definition is interpreted as belonging to an online game.

이하에서 "입력장치(Input Device)"란, 게이밍 디바이스에 데이터를 입력하기 위한 장치를 의미한다. 예컨대, 조이스틱, 마우스, 키보드, 터치스크린, 하드웨어 버튼 또는 스티어링 휠, 악기, 총, 장갑, 발판 등의 형태로 제조된 게임 조작 전용 입력장치를 들 수 있다. 이외에도 게이밍 디바이스에 탑재되거나 연동되는 각종 센서(온도 센서, 적외선 센서, 모션센서, 자이로센서, 가속도 센서, 중력 센서 등)나 글로벌 포지셔닝 시스템(GPS; Global Positioning System), 실내 위치 확인 시스템(Indoor Positioning System) 등의 위치 확인 수단 또한 입력장치의 일 예로 들 수 있다.Hereinafter, the "input device" refers to a device for inputting data to a gaming device. For example, a joystick, a mouse, a keyboard, a touch screen, a hardware button or an input device exclusively for game operation manufactured in the form of a steering wheel, a musical instrument, a gun, gloves, or a footrest. In addition, various sensors (temperature sensor, infrared sensor, motion sensor, gyro sensor, acceleration sensor, gravity sensor, etc.) mounted or interlocked with gaming devices, global positioning system (GPS), indoor positioning system ), etc. may also be an example of an input device.

이하, 도면들을 참조하여 본 발명의 실시 예에 대해 상세히 설명하기로 한다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention.

도 1은 일 실시예에 따른 스마트 컨트롤러 시스템(100)의 구성도이다.1 is a block diagram of a smart controller system 100 according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 스마트 컨트롤러 시스템(100)은 스마트 컨트롤러(110) 및 사용자 단말(120)을 포함한다.Referring to FIG. 1, a smart controller system 100 according to an embodiment includes a smart controller 110 and a user terminal 120.

일 실시예에 따르면, 스마트 컨트롤러 시스템(100)은 사용자 단말(120)에 설치되는 사용자 단말 제어 어플리케이션을 통해 사용자 단말(120)을 제어할 수 있다. 이때, 사용자 단말 제어 어플리케이션은 유/무선 네트워크를 통해 스마트 컨트롤러(110)와 연동하여 사용자 단말(120)을 제어하기 위한 프로그램일 수 있다.According to an embodiment, the smart controller system 100 may control the user terminal 120 through a user terminal control application installed in the user terminal 120. In this case, the user terminal control application may be a program for controlling the user terminal 120 by interlocking with the smart controller 110 through a wired/wireless network.

예를 들어, 사용자 단말 제어 어플리케이션은 스마트 컨트롤러(110)와 통신하면서 사용자 단말(120)을 제어하는 역할을 수행하며, 사용자 단말 제어와 관련하여 사용자의 조작과 관련된 조작 정보의 수신, 사용자 단말(120)에서 발생된 이벤트 정보의 제공, 사용자 단말 제어를 위한 각종 사용자 인터페이스의 제공 등 사용자가 사용자 단말(120)을 제어하기 위해 요구되는 다양한 역할을 수행할 수 있다.For example, the user terminal control application performs a role of controlling the user terminal 120 while communicating with the smart controller 110, receiving operation information related to the user's operation in connection with the user terminal control, and the user terminal 120 ), the user can perform various roles required to control the user terminal 120, such as providing various user interfaces for controlling the user terminal.

이때, 사용자 단말 제어 어플리케이션과 스마트 컨트롤러(110) 사이의 역할 분담은 실시예에 따라 다양하게 구성될 수 있다.In this case, the role division between the user terminal control application and the smart controller 110 may be variously configured according to embodiments.

스마트 컨트롤러(110)의 형상은 복수의 면을 포함하는 다면체 형상이다. 예를 들어, 도 1에 도시된 바와 같이, 스마트 컨트롤러(110)는 정육면체 형상일 수 있다. 다만, 스마트 컨트롤러(110)의 형상은 반드시 정육면체에 한정되는 것이 아니다.The shape of the smart controller 110 is a polyhedral shape including a plurality of surfaces. For example, as shown in FIG. 1, the smart controller 110 may have a cube shape. However, the shape of the smart controller 110 is not necessarily limited to a cube.

또한, 스마트 컨트롤러(110)의 각 면은 평면이 아니라, 곡면일 수도 있다. 또한, 스마트 컨트롤러(110)의 복수의 면은 서로 그 크기, 형태, 색깔이 상이할 수 있다. 또한, 실시예에 따라, 스마트 컨트롤러(110)의 복수의 면에는 각 면을 식별하기 위한 기호, 문자 등의 식별 표지가 표시되어 있을 수 있다.In addition, each surface of the smart controller 110 may be a curved surface rather than a flat surface. In addition, a plurality of surfaces of the smart controller 110 may have different sizes, shapes, and colors from each other. Further, according to an embodiment, identification marks such as symbols and characters for identifying each surface may be displayed on a plurality of surfaces of the smart controller 110.

스마트 컨트롤러(110)는 상기 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하며, 상기 사용자의 조작과 관련된 조작 정보를 사용자 단말(120)로 제공한다.The smart controller 110 detects a user's manipulation of one or more of the plurality of surfaces, and provides manipulation information related to the user's manipulation to the user terminal 120.

한편, 사용자 단말(120)은 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러(110)로부터 상기 조작 정보를 수신하고, 상기 조작 정보에 대응되는 기능을 식별하고, 상기 식별된 기능이 실행되도록 상기 사용자 단말(120)을 제어한다.Meanwhile, the user terminal 120 receives the operation information from the polyhedral smart controller 110 including a plurality of surfaces, identifies a function corresponding to the operation information, and executes the identified function. Control the terminal 120.

사용자 단말(120)은 예를 들어, 사용자의 조작에 의해 제어되는 전자기기일 수 있다. 사용자 단말(120)은 도 1에 도시된 바와 같이, 스마트폰일 수 있다. 다만, 사용자 단말(120)의 종류는 이에 한정되는 것은 아니고, 태블릿 PC, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 모바일 의료기기, 카메라 및 웨어러블 장치 등이 될 수 있다.The user terminal 120 may be, for example, an electronic device controlled by a user's manipulation. The user terminal 120 may be a smartphone, as shown in FIG. 1. However, the type of the user terminal 120 is not limited thereto, and may be a tablet PC, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a mobile medical device, a camera, and a wearable device. have.

복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러가 구비한 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하고, 상기 사용자의 조작과 관련된 조작 정보를 사용자 단말로 제공함으로써, 컨트롤러의 조작 시간 단축이 가능하며, 컨트롤러의 조작 실패를 방지하는 것이 가능하게 된다.By detecting a user's manipulation of at least one of a plurality of faces provided by a polyhedral smart controller including a plurality of faces, and providing operation information related to the user's operation to the user terminal, the controller operation time can be reduced. It is possible, and it becomes possible to prevent the operation failure of the controller.

도 2는 일 실시예에 따른 스마트 컨트롤러(110)의 블록도이다.2 is a block diagram of a smart controller 110 according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 스마트 컨트롤러(110)는 조작 감지부(111) 및 조작 정보 제공부(112)를 포함한다.Referring to FIG. 2, the smart controller 110 according to an embodiment includes a manipulation detection unit 111 and a manipulation information providing unit 112.

일 실시예에서, 조작 감지부(111) 및 조작 정보 제공부(112)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the manipulation detection unit 111 and the manipulation information providing unit 112 may be implemented using one or more physically separated devices, or may be implemented by one or more processors or a combination of one or more processors and software. , Unlike the illustrated example, it may not be clearly distinguished in a specific operation.

조작 감지부(111)는 스마트 컨트롤러(110)의 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지한다. 상기 사용자의 조작은 예를 들어, 터치, 드래그 등을 포함할 수 있다. 이를 위해, 조작 감지부(111)는 터치 센서, 모션 인식 센서 등을 구비할 수 있다.The manipulation detection unit 111 detects a user's manipulation of at least one of a plurality of surfaces of the smart controller 110. The user's manipulation may include, for example, a touch or a drag. To this end, the manipulation detection unit 111 may include a touch sensor, a motion recognition sensor, or the like.

조작 정보 제공부(112)는 조작 감지부(111)에서 감지된 사용자의 조작과 관련된 조작 정보를 사용자 단말(120)로 제공한다. 상기 조작 정보는 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나와 관련된 정보를 포함할 수 있다.The manipulation information providing unit 112 provides manipulation information related to a user's manipulation sensed by the manipulation detection unit 111 to the user terminal 120. The manipulation information may include information related to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type on the manipulation target surface.

상기 조작 대상 면과 관련된 정보는 예를 들어, 조작 대상 면의 식별 정보 등을 포함할 수 있다. 그리고, 상기 사용자의 조작 형태에 관한 정보는 예를 들어, 터치 위치, 터치 강도, 터치 유지 시간, 드래그 궤적 등을 포함할 수 있다. 구체적인 예로, 상기 사용자가 스마트 컨트롤러(110)의 복수의 면 중 임의의 제1 면을 드래그한 경우, 스마트 컨트롤러(110)는 제1 면에 대한 식별 정보 및 드래그 궤적에 관한 정보를 사용자 단말(120)로 제공할 수 있다.The information related to the manipulation target surface may include, for example, identification information of the manipulation target surface. In addition, the information on the user's manipulation type may include, for example, a touch position, a touch intensity, a touch holding time, a drag trajectory, and the like. As a specific example, when the user drags an arbitrary first surface among a plurality of surfaces of the smart controller 110, the smart controller 110 transmits identification information on the first surface and information on the drag trajectory to the user terminal 120. ) Can be provided.

도 3은 추가적인 일 실시예에 따른 스마트 컨트롤러(110)의 블록도이다.3 is a block diagram of a smart controller 110 according to an additional embodiment.

도 3을 참조하면, 추가적인 일 실시예에 따른 스마트 컨트롤러(110)는 조작 감지부(111), 조작 정보 제공부(112) 및 최상단면 감지부(113)를 포함한다.Referring to FIG. 3, the smart controller 110 according to an additional embodiment includes a manipulation detection unit 111, a manipulation information providing unit 112, and a top surface detection unit 113.

일 실시예에서, 조작 감지부(111), 조작 정보 제공부(112) 및 최상단면 감지부(113)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the manipulation detection unit 111, the manipulation information providing unit 112, and the top surface detection unit 113 are implemented using at least one physically separated device, or at least one processor or at least one processor and software It may be implemented by a combination of, and unlike the illustrated example, may not be clearly distinguished in a specific operation.

최상단면 감지부(113)는 스마트 컨트롤러(110)의 복수의 면 중 최상단에 위치하는 최상단면을 감지할 수 있다. 이를 위해, 최상단면 감지부(113)는 중력 센서, 자이로 센서, 기울기 센서, 거리 센서 등을 구비할 수 있다.The uppermost surface detection unit 113 may detect an uppermost surface among a plurality of surfaces of the smart controller 110. To this end, the uppermost detection unit 113 may include a gravity sensor, a gyro sensor, a tilt sensor, a distance sensor, and the like.

일 예시로, 최상단면 감지부(113)는 거리 센서를 이용하여 지면과 접하는 하면을 먼저 감지하고, 상기 하면에 대항하는 면을 최상단면으로 감지할 수 있다. 다른 예시로, 최상단면 감지부(113)는 중력 센서를 이용하여 중력 방향의 하면을 먼저 감지하고, 상기 하면에 대항하는 면을 최상단면으로 감지할 수 있다.As an example, the uppermost surface sensing unit 113 may first detect a lower surface in contact with the ground by using a distance sensor, and detect a surface opposite to the lower surface as the uppermost surface. As another example, the uppermost surface detection unit 113 may first detect a lower surface in the direction of gravity using a gravity sensor, and detect a surface opposite to the lower surface as the uppermost surface.

조작 정보 제공부(112)는 최상단면 감지부(113)에 의해 감지된 최상단면과 관련된 정보를 사용자 단말(120)로 제공할 수 있다. 상기 최상단면과 관련된 정보는 예를 들어, 상기 최상단면에 대한 식별 정보를 포함할 수 있다.The manipulation information providing unit 112 may provide information related to the top section detected by the top section detecting unit 113 to the user terminal 120. The information related to the top section may include, for example, identification information on the top section.

도 4는 추가적인 다른 실시예에 따른 스마트 컨트롤러(110)의 블록도이다.4 is a block diagram of a smart controller 110 according to an additional embodiment.

도 4를 참조하면, 추가적인 다른 실시예에 따른 스마트 컨트롤러(110)는 조작 감지부(111), 조작 정보 제공부(112) 및 움직임 감지부(114)를 포함한다.Referring to FIG. 4, a smart controller 110 according to an additional embodiment includes a manipulation detection unit 111, a manipulation information providing unit 112, and a motion detection unit 114.

일 실시예에서, 조작 감지부(111), 조작 정보 제공부(112) 및 움직임 감지부(114)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the manipulation detection unit 111, the manipulation information providing unit 112, and the motion detection unit 114 may be implemented using one or more physically separated devices, or of one or more processors or one or more processors and software. It may be implemented by combining, and unlike the illustrated example, it may not be clearly distinguished in a specific operation.

움직임 감지부(114)는 스마트 컨트롤러(110)의 움직임을 감지할 수 있다. 움직임은 이동, 회전 등을 포함할 수 있다. 이를 위해, 움직임 감지부(114)는 거리 센서, 속도 센서, 가속도 센서, 기울기 센서 등을 구비할 수 있다.The motion detection unit 114 may detect the motion of the smart controller 110. Movement may include movement, rotation, and the like. To this end, the motion detection unit 114 may include a distance sensor, a speed sensor, an acceleration sensor, and a tilt sensor.

조작 정보 제공부(112)는 상기 움직임과 관련된 움직임 정보를 사용자 단말(120)로 제공할 수 있다. 움직임 정보는 예를 들어, 이동 방향, 이동 거리, 회전 방향, 회전 각도 등을 포함할 수 있다.The manipulation information providing unit 112 may provide motion information related to the motion to the user terminal 120. The motion information may include, for example, a moving direction, a moving distance, a rotation direction, a rotation angle, and the like.

도 5는 추가적인 또 다른 실시예에 따른 스마트 컨트롤러(110)의 블록도이다.5 is a block diagram of a smart controller 110 according to still another embodiment.

도 5를 참조하면, 추가적인 다른 실시예에 따른 스마트 컨트롤러(110)는 조작 감지부(111), 조작 정보 제공부(112), 신호 발생부(115) 및 이벤트 정보 수신부(116)를 포함한다.Referring to FIG. 5, a smart controller 110 according to an additional embodiment includes a manipulation detecting unit 111, a manipulation information providing unit 112, a signal generating unit 115, and an event information receiving unit 116.

일 실시예에서, 조작 감지부(111), 조작 정보 제공부(112), 신호 발생부(115) 및 이벤트 정보 수신부(116)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the manipulation detection unit 111, the manipulation information providing unit 112, the signal generation unit 115, and the event information receiving unit 116 are implemented using one or more physically separated devices, or one or more processors Alternatively, it may be implemented by a combination of one or more processors and software, and unlike the illustrated example, the specific operation may not be clearly distinguished.

신호 발생부(115)는 사용자의 조작에 기초하여 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시킬 수 있다. 이를 위해, 신호 발생부(115)는 발광장치, 스피커 등을 구비할 수 있다.The signal generator 115 may generate at least one of a visual signal and an audible signal based on a user's manipulation. To this end, the signal generator 115 may include a light emitting device, a speaker, or the like.

예를 들어, 신호 발생부(115)는 사용자의 조작이 감지된 조작 대상 면을 사용자에게 인식시키기 위한 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시킬 수 있다. 구체적으로, 상기 사용자가 스마트 컨트롤러(110)의 복수의 면 중 임의의 제1 면을 터치한 경우, 신호 발생부(115)는 제1 면의 색상이 변하도록 할 수 있다.For example, the signal generator 115 may generate at least one of a visual signal and an audible signal for recognizing a manipulation target surface on which the user's manipulation is sensed. Specifically, when the user touches an arbitrary first surface among a plurality of surfaces of the smart controller 110, the signal generator 115 may change the color of the first surface.

이벤트 정보 수신부(116)는 사용자 단말(120)로부터 이벤트 정보를 수신할 수 있다. 이 경우, 신호 발생부(115)는 이벤트 정보 수신부(116)가 수신한 이벤트 정보에 기초하여 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시킬 수 있다. 예를 들어, 신호 발생부(115)는 미리 저장된 맵핑 정보에 기초하여 이벤트 정보에 대응되는 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시킬 수 있다.The event information receiving unit 116 may receive event information from the user terminal 120. In this case, the signal generator 115 may generate at least one of a visual signal and an audible signal based on the event information received by the event information receiving unit 116. For example, the signal generator 115 may generate at least one of a visual signal and an audible signal corresponding to the event information based on previously stored mapping information.

한편, 조작 감지부(111)는 사용자의 음성을 입력받는 마이크를 포함하고, 조작 정보 제공부(112)는 상기 사용자의 음성과 관련된 음성 정보를 사용자 단말(120)로 제공할 수 있다. 그리고, 이벤트 정보 수신부(116)는 상기 사용자 단말(120)로부터 상기 제공된 음성 정보에 대한 응답 정보를 수신하고, 신호 발생부(115)는 상기 응답 정보에 대응되는 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시킬 수 있다. 이로써, 스마트 컨트롤러(110)는 사용자가 원하는 정보를 안내할 수 있다.Meanwhile, the manipulation detection unit 111 includes a microphone for receiving a user's voice, and the manipulation information providing unit 112 may provide voice information related to the user's voice to the user terminal 120. In addition, the event information receiving unit 116 receives response information for the provided voice information from the user terminal 120, and the signal generator 115 is at least one of a visual signal and an audible signal corresponding to the response information. Can occur. Thereby, the smart controller 110 may guide information desired by the user.

도 6은 일 실시예에 따른 사용자 단말 제어 장치(600)의 블록도이다.6 is a block diagram of an apparatus 600 for controlling a user terminal according to an exemplary embodiment.

도 6에 도시된 사용자 단말 제어 장치(600)는 도 1에 도시된 사용자 단말(120)의 일 구성으로 포함될 수 있다.The user terminal control apparatus 600 illustrated in FIG. 6 may be included as a component of the user terminal 120 illustrated in FIG. 1.

도 6을 참조하면, 일 실시예에 따른 사용자 단말 제어 장치(600)는 조작 정보 수신부(610) 및 사용자 단말 제어부(620)를 포함한다.Referring to FIG. 6, an apparatus 600 for controlling a user terminal according to an embodiment includes a manipulation information receiving unit 610 and a user terminal controller 620.

일 실시예에서, 조작 정보 수신부(610) 및 사용자 단말 제어부(620)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the operation information receiving unit 610 and the user terminal control unit 620 may be implemented using one or more physically separated devices, or may be implemented by one or more processors or a combination of one or more processors and software, Unlike the illustrated example, specific operations may not be clearly distinguished.

조작 정보 수신부(610)는 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러(110)로부터 상기 복수의 면 중 하나 이상에 대한 사용자의 조작과 관련된 조작 정보를 수신한다. 상기 사용자의 조작은 예를 들어, 터치, 드래그 등을 포함할 수 있다. 상기 조작 정보는 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나와 관련된 정보를 포함할 수 있다.The manipulation information receiving unit 610 receives manipulation information related to a user's manipulation of at least one of the plurality of surfaces from the polyhedral smart controller 110 including a plurality of surfaces. The user's manipulation may include, for example, a touch or a drag. The manipulation information may include information related to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type on the manipulation target surface.

상기 조작 대상 면과 관련된 정보는 예를 들어, 조작 대상 면의 식별 정보 등을 포함할 수 있다. 사용자의 조작 형태에 관한 정보는 예를 들어, 터치 위치, 터치 강도, 터치 유지 시간, 드래그 궤적 등을 포함할 수 있다.The information related to the manipulation target surface may include, for example, identification information of the manipulation target surface. Information on the user's manipulation type may include, for example, a touch position, a touch intensity, a touch hold time, a drag trajectory, and the like.

사용자 단말 제어부(620)는 조작 정보 수신부(610)가 수신한 조작 정보에 대응되는 기능을 식별하고, 상기 식별된 기능이 실행되도록 사용자 단말(120)을 제어한다. 예를 들어, 사용자 단말 제어부(620)는 미리 저장된 맵핑 정보에 기초하여 상기 조작 정보에 대응되는 기능을 식별할 수 있다.The user terminal control unit 620 identifies a function corresponding to the operation information received by the operation information receiver 610 and controls the user terminal 120 to execute the identified function. For example, the user terminal control unit 620 may identify a function corresponding to the manipulation information based on previously stored mapping information.

조작 정보에 대응되는 기능은 조작 대상 면 및 사용자의 조작 형태 중 적어도 하나에 따라 상이할 수 있다. 예를 들어, 사용자가 복수의 면 중 제1 면을 터치한 경우와 제2 면을 터치한 경우에 실행될 기능은 각각 상이할 수 있다.The function corresponding to the manipulation information may be different according to at least one of a manipulation target surface and a user's manipulation type. For example, functions to be executed when a user touches a first surface among a plurality of surfaces and a second surface may be different.

한편, 조작 정보에 대응되는 기능은 상기 사용자 단말(120)에 실행중인 프로그램에 따라 상이할 수 있다. 예를 들어, 사용자 단말(120)에 게임이 실행 중인 경우와 동영상이나 음악 재생 프로그램이 실행 중인 경우에 사용자가 동일하게 제1 면을 터치하였더라도 상기 제1 면에 대응되는 기능은 각각 상이할 수 있다.Meanwhile, a function corresponding to the manipulation information may be different according to a program running on the user terminal 120. For example, even if the user touches the first surface in the same manner when a game is running on the user terminal 120 and when a video or music playback program is running, functions corresponding to the first surface may be different. .

한편, 조작 정보 수신부(610)는 스마트 컨트롤러(110)로부터 상기 스마트 컨트롤러(110)의 최상단면과 관련된 정보를 수신할 수 있다. 한편, 사용자 단말 제어부(620)는 사용자 단말(120)에 주사위 프로그램이 실행 중인 경우 스마트 컨트롤러(110)의 복수의 면 각각에 대응되는 숫자 중 최상단면에 대응되는 숫자를 이용하여 주사위 결과값을 결정할 수 있다.Meanwhile, the manipulation information receiving unit 610 may receive information related to the uppermost surface of the smart controller 110 from the smart controller 110. Meanwhile, when the dice program is running on the user terminal 120, the user terminal control unit 620 determines the dice result value by using the number corresponding to the uppermost side of the numbers corresponding to each of the plurality of sides of the smart controller 110 I can.

한편, 조작 정보 수신부(610)는 스마트 컨트롤러(110)로부터 상기 스마트 컨트롤러(110)의 움직임과 관련된 움직임 정보를 수신할 수 있다. 그리고, 사용자 단말 제어부(620)는 상기 움직임 정보에 대응되는 기능을 식별하고, 상기 식별된 기능이 실행되도록 상기 사용자 단말을 제어할 수 있다. 예를 들어, 사용자 단말 제어부(620)는 미리 저장된 맵핑 정보에 기초하여 상기 움직임 정보에 대응되는 기능을 식별할 수 있다.Meanwhile, the manipulation information receiving unit 610 may receive motion information related to the motion of the smart controller 110 from the smart controller 110. Further, the user terminal control unit 620 may control the user terminal to identify a function corresponding to the motion information and to execute the identified function. For example, the user terminal control unit 620 may identify a function corresponding to the motion information based on previously stored mapping information.

도 7은 추가적인 일 실시예에 따른 사용자 단말 제어 장치(600)의 블록도이다.7 is a block diagram of an apparatus 600 for controlling a user terminal according to an additional embodiment.

도 7에 도시된 사용자 단말 제어 장치(600)는 도 1에 도시된 사용자 단말(120)의 일 구성으로 포함될 수 있다.The user terminal control apparatus 600 shown in FIG. 7 may be included as a component of the user terminal 120 shown in FIG. 1.

도 7을 참조하면, 일 실시예에 따른 사용자 단말 제어 장치(600)는 조작 정보 수신부(610), 사용자 단말 제어부(620) 및 이벤트 정보 제공부(630)를 포함한다.Referring to FIG. 7, the apparatus 600 for controlling a user terminal according to an embodiment includes a manipulation information receiving unit 610, a user terminal controller 620, and an event information providing unit 630.

일 실시예에서, 정보 수신부(610), 사용자 단말 제어부(620) 및 이벤트 정보 제공부(630)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the information receiving unit 610, the user terminal control unit 620, and the event information providing unit 630 are implemented using one or more physically separated devices, or a combination of one or more processors or one or more processors and software. It may be implemented by, and unlike the illustrated example, may not be clearly distinguished in a specific operation.

이벤트 정보 제공부(630)는 미리 설정된 이벤트가 발생된 경우, 상기 발생된 이벤트와 관련된 이벤트 정보를 스마트 컨트롤러(110)로 제공할 수 있다. 예를 들어, 이벤트 정보 제공부(630)는 미리 저장된 맵핑 정보에 기초하여, 상기 발생된 이벤트에 대응되는 이벤트 정보를 스마트 컨트롤러(110)로 제공할 수 있다.When a preset event occurs, the event information providing unit 630 may provide event information related to the generated event to the smart controller 110. For example, the event information providing unit 630 may provide event information corresponding to the generated event to the smart controller 110 based on previously stored mapping information.

조작 정보 수신부(610)는 스마트 컨트롤러(110)로부터 상기 제공된 이벤트 정보에 대한 응답으로 사용자의 조작 정보를 수신할 수 있다. 이때, 사용자 단말 제어부(620)는 조작 정보 수신부(610)가 수신한 조작 정보에 대응되는 기능을 식별하고, 상기 식별된 기능이 실행되도록 사용자 단말(120)을 제어할 수 있다. 이때, 사용자 단말 제어부(620)는 미리 저장된 맵핑 정보에 기초하여 상기 조작 정보에 대응되는 기능을 식별할 수 있다.The manipulation information receiving unit 610 may receive manipulation information of a user in response to the provided event information from the smart controller 110. In this case, the user terminal control unit 620 may identify a function corresponding to the operation information received by the operation information receiver 610 and control the user terminal 120 to execute the identified function. In this case, the user terminal control unit 620 may identify a function corresponding to the manipulation information based on previously stored mapping information.

예를 들어, 사용자 단말 제어부(620)는 이벤트 정보 제공부(630)가 스마트 컨트롤러(110)로 이벤트 정보를 제공한 시점으로부터 미리 설정된 시간 이내에 조작 정보 수신부(610)가 사용자의 조작 정보를 수신한 경우, 미리 저장된 맵핑 정보에 기초하여 상기 이벤트 정보에 대응되는 기능이 실행되도록 사용자 단말을 제어할 수 있다.For example, the user terminal control unit 620 may receive the operation information of the user within a preset time from the time when the event information providing unit 630 provides the event information to the smart controller 110. In this case, the user terminal may be controlled to execute a function corresponding to the event information based on previously stored mapping information.

구체적으로, 사용자 단말 제어부(720)는 사용자 단말(120) 내 게임이 실행 중이고 스마트 컨트롤러의 최상단면에 대한 사용자의 조작 정보를 수신한 경우에는 기본적으로 상기 게임 내 사용자의 캐릭터가 각성 스킬을 사용하도록 사용자 단말(120)을 제어하나, 상기 게임 내 사용자의 캐릭터가 죽을 염려가 있어 이에 대응되는 이벤트 정보를 스마트 컨트롤러(110)로 제공한 경우에는 이로부터 5초 이내에 최상단면에 대한 사용자의 조작 정보를 수신하면 사용자의 캐릭터가 마을로 귀환하도록 사용자 단말(120)을 제어할 수 있다.Specifically, when the game in the user terminal 120 is running and the user's operation information for the top section of the smart controller is received, the user terminal controller 720 basically allows the character of the user in the game to use the awakening skill. If the user terminal 120 is controlled, but the event information corresponding to the event information is provided to the smart controller 110 because there is a fear that the user's character in the game will die, the user's operation information on the top section is provided within 5 seconds. Upon receipt, the user terminal 120 may be controlled so that the user's character returns to the village.

한편, 조작 정보 수신부(610)는 스마트 컨트롤러(110)로부터 사용자의 음성과 관련된 음성 정보를 수신할 수 있다. 이때, 사용자 단말 제어부(620)는 인터넷을 이용하여 사용자의 음성 정보에 포함된 내용을 검색하도록 사용자 단말(120)을 제어할 수 있다. 이때, 이벤트 정보 제공부(630)는 사용자 단말 제어부(620)가 검색한 결과를 상기 음성 정보에 대한 응답으로 스마트 컨트롤러(110)에 제공할 수 있다. 이로써, 사용자 단말(120)은 사용자가 원하는 정보를 검색하고, 스마트 컨트롤러(110)는 사용자가 원하는 정보를 안내할 수 있다.Meanwhile, the manipulation information receiving unit 610 may receive voice information related to a user's voice from the smart controller 110. In this case, the user terminal controller 620 may control the user terminal 120 to search for content included in the user's voice information using the Internet. In this case, the event information providing unit 630 may provide the search result of the user terminal control unit 620 to the smart controller 110 in response to the voice information. Accordingly, the user terminal 120 may search for information desired by the user, and the smart controller 110 may guide the information desired by the user.

도 8은 일 실시예에 따른 사용자 단말 제어 방법의 흐름도이다.8 is a flowchart of a method for controlling a user terminal according to an embodiment.

도 8에 도시된 방법은 예를 들어, 도 1에 도시된 사용자 단말(120)에 의해 수행될 수 있다.The method shown in FIG. 8 may be performed, for example, by the user terminal 120 shown in FIG. 1.

도시된 흐름도에서는 상기 방법을 복수 개의 동작으로 나누어 기재하였으나, 적어도 일부의 동작들은 순서를 바꾸어 수행되거나, 다른 동작과 결합되어 함께 수행되거나, 생략되거나, 세부 동작들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 동작이 부가되어 수행될 수 있다.In the illustrated flowchart, the method is described by dividing the method into a plurality of operations, but at least some of the operations are performed in a different order, combined with other operations, performed together, omitted, divided into detailed operations, or not shown. One or more operations may be added and performed.

먼저, 사용자 단말(120)은 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러로부터 상기 복수의 면 중 하나 이상에 대한 사용자의 조작과 관련된 조작 정보를 수신한다(810).First, the user terminal 120 receives operation information related to a user's manipulation of at least one of the plurality of surfaces from a polyhedral smart controller including a plurality of surfaces (810).

다음으로, 사용자 단말(120)은 상기 수신한 조작 정보에 대응되는 기능을 식별한다(820). 조작 정보에 대응되는 기능은 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나에 따라 상이할 수 있다. 한편, 조작 정보에 대응되는 기능은 상기 사용자 단말에 실행 중인 프로그램에 따라 상이할 수 있다.Next, the user terminal 120 identifies a function corresponding to the received manipulation information (820). The function corresponding to the manipulation information may be different according to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type of the manipulation target surface. Meanwhile, a function corresponding to the manipulation information may be different according to a program running on the user terminal.

마지막으로, 사용자 단말(120)은 상기 식별된 기능이 실행되도록 사용자 단말을 제어한다(830).Finally, the user terminal 120 controls the user terminal to execute the identified function (830).

도 9는 추가적인 일 실시예에 따른 사용자 단말 제어 방법의 흐름도이다.9 is a flowchart of a method for controlling a user terminal according to an additional embodiment.

도 9에 도시된 방법은 예를 들어, 도 1에 도시된 사용자 단말(120)에 의해 수행될 수 있다.The method shown in FIG. 9 may be performed, for example, by the user terminal 120 shown in FIG. 1.

도시된 흐름도에서는 상기 방법을 복수 개의 동작으로 나누어 기재하였으나, 적어도 일부의 동작들은 순서를 바꾸어 수행되거나, 다른 동작과 결합되어 함께 수행되거나, 생략되거나, 세부 동작들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 동작이 부가되어 수행될 수 있다.In the illustrated flowchart, the method is described by dividing the method into a plurality of operations, but at least some of the operations are performed in a different order, combined with other operations, performed together, omitted, divided into detailed operations, or not shown. One or more operations may be added and performed.

먼저, 사용자 단말(120)은 스마트 컨트롤러로부터 상기 스마트 컨트롤러의 움직임과 관련된 움직임 정보를 수신할 수 있다(910). 다음으로, 사용자 단말(120)은 상기 움직임 정보에 대응되는 기능을 식별할 수 있다(920).First, the user terminal 120 may receive motion information related to the motion of the smart controller from the smart controller (910). Next, the user terminal 120 may identify a function corresponding to the motion information (920).

마지막으로, 사용자 단말(120)은 상기 식별된 기능이 실행되도록 상기 사용자 단말(120)을 제어할 수 있다(930). 실시예에 따라, 사용자 단말(120)은 미리 설정된 이벤트가 발생된 경우, 상기 발생된 이벤트와 관련된 이벤트 정보를 스마트 컨트롤러로 제공할 수 있다.Finally, the user terminal 120 may control the user terminal 120 to execute the identified function (930). According to an embodiment, when a preset event occurs, the user terminal 120 may provide event information related to the generated event to the smart controller.

한편, 개시되는 실시예들에 따르면, 복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러가 구비한 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하고, 상기 사용자의 조작과 관련된 조작 정보를 사용자 단말로 제공함으로써, 스마트 컨트롤러를 통해 사용자 단말을 제어하는 것이 가능하도록 한다.On the other hand, according to the disclosed embodiments, a user's manipulation of at least one of a plurality of faces provided by a polyhedral smart controller including a plurality of faces is detected, and operation information related to the user's manipulation is transmitted to the user terminal. By providing as, it is possible to control the user terminal through a smart controller.

개시되는 실시예들에 따르면, 조작 정보가 조작 대상 면 및 사용자의 조작 형태 중 적어도 하나와 관련된 정보를 포함함으로써, 사용자 단말이 조작 대상 면 및 사용자의 조작 형태 중 적어도 하나에 따라 상이한 기능이 실행되도록 상기 사용자 단말을 제어하는 것이 가능하도록 한다.According to the disclosed embodiments, the operation information includes information related to at least one of the operation target surface and the user's operation type, so that the user terminal executes different functions according to at least one of the operation target surface and the user's operation type. It makes it possible to control the user terminal.

나아가, 스마트 컨트롤러를 통해 단말을 제어하는 경우, 컨트롤러의 조작 시간 단축이 가능하며, 컨트롤러의 조작 실패를 방지하고, 사용자의 단말 제어의 편의성을 향상시킬 수 있다.Furthermore, when the terminal is controlled through a smart controller, it is possible to shorten the operation time of the controller, prevent the operation failure of the controller, and improve the convenience of the user's terminal control.

한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, an embodiment of the present invention may include a program for performing the methods described herein on a computer, and a computer-readable recording medium including the program. The computer-readable recording medium may include a program command, a local data file, a local data structure, or the like alone or in combination. The media may be specially designed and configured for the present invention, or may be commonly used in the field of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and specially configured to store and execute program instructions such as ROM, RAM, and flash memory. Hardware devices are included. Examples of the program may include not only machine language codes such as those created by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (23)

복수의 면을 포함하는 다면체 형상의 스마트 컨트롤러에 있어서,
상기 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하는 조작 감지부;
상기 사용자의 조작과 관련된 조작 정보를 사용자 단말로 제공하는 조작 정보 제공부; 및
상기 사용자의 조작에 기초하여, 상기 사용자의 조작이 감지된 조작 대상 면을 상기 사용자에게 인식시키기 위한 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시키는 신호 발생부를 포함하는, 스마트 컨트롤러.
In the polyhedral shape smart controller including a plurality of faces,
A manipulation detection unit for detecting a user's manipulation of at least one of the plurality of surfaces;
An operation information providing unit that provides operation information related to the user's operation to a user terminal; And
Based on the user's manipulation, the smart controller comprising a signal generator for generating at least one of a visual signal and an audible signal for recognizing the manipulation target surface on which the manipulation of the user is sensed to the user.
청구항 1에 있어서,
상기 사용자의 조작은, 터치 및 드래그 중 적어도 하나를 포함하는, 스마트 컨트롤러.
The method according to claim 1,
The user's manipulation includes at least one of a touch and a drag.
청구항 1에 있어서,
상기 조작 정보는, 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나와 관련된 정보를 포함하는, 스마트 컨트롤러.
The method according to claim 1,
The manipulation information includes information related to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type of the manipulation target surface.
청구항 3에 있어서,
상기 복수의 면 중 최상단에 위치하는 최상단면을 감지하는 최상단면 감지부를 더 포함하며,
상기 조작 정보 제공부는, 상기 최상단면과 관련된 정보를 상기 사용자 단말로 제공하는, 스마트 컨트롤러.
The method of claim 3,
Further comprising an uppermost surface detection unit for detecting an uppermost surface located at the uppermost of the plurality of surfaces,
The operation information providing unit, a smart controller that provides information related to the uppermost section to the user terminal.
청구항 1에 있어서,
상기 스마트 컨트롤러의 움직임을 감지하는 움직임 감지부를 더 포함하고,
상기 조작 정보 제공부는, 상기 움직임과 관련된 움직임 정보를 상기 사용자 단말로 제공하는, 스마트 컨트롤러.
The method according to claim 1,
Further comprising a motion detection unit for detecting the movement of the smart controller,
The manipulation information providing unit provides motion information related to the motion to the user terminal.
삭제delete 청구항 1에 있어서,
상기 사용자 단말로부터 이벤트 정보를 수신하는 이벤트 정보 수신부를 더 포함하며,
상기 신호 발생부는, 상기 이벤트 정보에 기초하여 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시키는, 스마트 컨트롤러.
The method according to claim 1,
Further comprising an event information receiver for receiving event information from the user terminal,
The signal generator generates at least one of a visual signal and an audible signal based on the event information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 다면체 형상의 스마트 컨트롤러의 복수의 면 중 하나 이상에 대한 사용자의 조작을 감지하는 동작;
상기 사용자의 조작과 관련된 조작 정보를 사용자 단말로 제공하는 동작; 및
상기 사용자의 조작에 기초하여, 상기 사용자의 조작이 감지된 조작 대상 면을 상기 사용자에게 인식시키기 위한 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시키는 동작을 포함하는, 스마트 컨트롤러 제어 방법.
Detecting a user's manipulation of at least one of a plurality of surfaces of the polyhedral smart controller;
Providing operation information related to the user's operation to a user terminal; And
And generating at least one of a visual signal and an audible signal for recognizing the manipulation target surface on which the manipulation of the user is sensed to the user based on the manipulation of the user.
청구항 18에 있어서,
상기 사용자의 조작은, 터치 및 드래그 중 적어도 하나를 포함하는, 스마트 컨트롤러 제어 방법.
The method of claim 18,
The user's manipulation includes at least one of a touch and a drag.
청구항 18에 있어서,
상기 조작 정보는, 상기 복수의 면 중 상기 사용자의 조작이 감지된 조작 대상 면 및 상기 조작 대상 면에 대한 사용자의 조작 형태 중 적어도 하나와 관련된 정보를 포함하는, 스마트 컨트롤러 제어 방법.
The method of claim 18,
The manipulation information includes information related to at least one of a manipulation target surface on which the user's manipulation is detected among the plurality of surfaces and a user manipulation type on the manipulation target surface.
청구항 20에 있어서,
상기 복수의 면 중 최상단에 위치하는 최상단면을 감지하는 동작; 및
상기 최상단면과 관련된 정보를 상기 사용자 단말로 제공하는 동작을 더 포함하는, 스마트 컨트롤러 제어 방법.
The method of claim 20,
Detecting an uppermost surface located at an uppermost end of the plurality of surfaces; And
A method of controlling a smart controller further comprising an operation of providing information related to the top section to the user terminal.
청구항 18에 있어서,
상기 스마트 컨트롤러의 움직임을 감지하는 동작; 및
상기 움직임과 관련된 움직임 정보를 상기 사용자 단말로 제공하는 동작을 더 포함하는, 스마트 컨트롤러 제어 방법.
The method of claim 18,
Detecting movement of the smart controller; And
The method of controlling a smart controller, further comprising providing motion information related to the motion to the user terminal.
청구항 18에 있어서,
상기 사용자 단말로부터 이벤트 정보를 수신하는 동작; 및
상기 이벤트 정보에 기초하여 시각적 신호 및 청각적 신호 중 적어도 하나를 발생시키는 동작을 더 포함하는, 스마트 컨트롤러 제어 방법.
The method of claim 18,
Receiving event information from the user terminal; And
The smart controller control method further comprising generating at least one of a visual signal and an audible signal based on the event information.
KR1020180171058A 2018-12-27 2018-12-27 Smart controler, apparatus for controling user terminal, and method for controling user terminal KR102185576B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180171058A KR102185576B1 (en) 2018-12-27 2018-12-27 Smart controler, apparatus for controling user terminal, and method for controling user terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180171058A KR102185576B1 (en) 2018-12-27 2018-12-27 Smart controler, apparatus for controling user terminal, and method for controling user terminal

Publications (2)

Publication Number Publication Date
KR20200080996A KR20200080996A (en) 2020-07-07
KR102185576B1 true KR102185576B1 (en) 2020-12-02

Family

ID=71602668

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180171058A KR102185576B1 (en) 2018-12-27 2018-12-27 Smart controler, apparatus for controling user terminal, and method for controling user terminal

Country Status (1)

Country Link
KR (1) KR102185576B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294928A (en) * 2008-06-05 2009-12-17 Osaka Electro-Communication Univ Input device, input system, and input method in input device
JP2010193144A (en) * 2009-02-18 2010-09-02 Sony Ericsson Mobilecommunications Japan Inc Remote control device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110024763A (en) * 2009-09-03 2011-03-09 주식회사 알티캐스트 Polyhedron remote controller and remote control system
KR101445990B1 (en) * 2010-08-27 2014-09-29 인텔 코포레이션 Techniques for augmenting a digital on-screen graphic

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294928A (en) * 2008-06-05 2009-12-17 Osaka Electro-Communication Univ Input device, input system, and input method in input device
JP2010193144A (en) * 2009-02-18 2010-09-02 Sony Ericsson Mobilecommunications Japan Inc Remote control device

Also Published As

Publication number Publication date
KR20200080996A (en) 2020-07-07

Similar Documents

Publication Publication Date Title
US9227141B2 (en) Touch screen game controller
US11351457B2 (en) Selecting an anchored offset targeting position
US20110195781A1 (en) Multi-touch mouse in gaming applications
KR102260409B1 (en) Method and apparatus for interfacing of game
KR102185576B1 (en) Smart controler, apparatus for controling user terminal, and method for controling user terminal
KR102495259B1 (en) Method and apparatus for targeting precisely at objects in on-line game
KR102614708B1 (en) Method for selecting target object and gaming device for executint the method
KR102557808B1 (en) Gaming service system and method for sharing memo therein
US20160232673A1 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
JP2017012307A (en) Program and terminal
JP2015163218A (en) Game providing device
KR102170825B1 (en) Apparatus and method for controlling game
KR20190127308A (en) Apparatus and method for predicting game user control
KR20200005066A (en) Apparatus and method for sending event information, apparatus and method for displayng event information
JP6661595B2 (en) Game program, method and information processing device
KR102362707B1 (en) Method for adjusting position and size of virtual pad for gaming on screen and server using the same
KR102540798B1 (en) Method for providing user interface and mobile terminal
JP6307651B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
KR102141477B1 (en) Apparatus and method for controlling game
US20240091644A1 (en) Virtual object control method and apparatus, device, and medium
KR101945384B1 (en) Apparatus and method for providing game interface
KR102463571B1 (en) Apparatus and method for controlling game
KR102609293B1 (en) Apparatus and method for determining game action
JP2022095526A (en) Game system, program and information processing method
JP2019103815A (en) Game program, method and information processing apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant