KR101622361B1 - Method and device for providing game service - Google Patents

Method and device for providing game service Download PDF

Info

Publication number
KR101622361B1
KR101622361B1 KR1020140186731A KR20140186731A KR101622361B1 KR 101622361 B1 KR101622361 B1 KR 101622361B1 KR 1020140186731 A KR1020140186731 A KR 1020140186731A KR 20140186731 A KR20140186731 A KR 20140186731A KR 101622361 B1 KR101622361 B1 KR 101622361B1
Authority
KR
South Korea
Prior art keywords
user
information
user device
unit
input
Prior art date
Application number
KR1020140186731A
Other languages
Korean (ko)
Inventor
권재욱
Original Assignee
라인플러스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인플러스 주식회사 filed Critical 라인플러스 주식회사
Priority to KR1020140186731A priority Critical patent/KR101622361B1/en
Application granted granted Critical
Publication of KR101622361B1 publication Critical patent/KR101622361B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Abstract

Disclosed is a method by which a user device provides a game service. The method: obtains first positional information of the user device by using at least one among a GPS sensor and a geomagnetic sensor included in a positional information obtaining unit; obtains second positional information of at least one different device via a communication unit; displays a first object and at least one second object at each position corresponding to the first positional information and the second position information, respectively, on a user interface of a game application output on a display unit; determines one among movements the first object can conduct by using a user input obtained from a user input unit and user device status information obtained from a status information obtaining unit; and controls the first object according to the movement determined by a control unit.

Description

게임 서비스를 제공하는 방법 및 게임 서비스를 제공하는 디바이스 {METHOD AND DEVICE FOR PROVIDING GAME SERVICE}TECHNICAL FIELD [0001] The present invention relates to a method and a device for providing a game service,

본 발명은 디바이스를 사용하는 유저 또는 디바이스의 실제 상태를 감지하여, 디바이스에서 실행되고 있는 게임 애플리케이션에 적용함으로써, 사용자가 보다 직관적으로 게임 애플리케이션을 이용할 수 있도록 게임 서비스를 제공하는 방법, 디바이스 및 기록매체에 관한 것이다.The present invention relates to a method, device, and recording medium for providing a game service so that a user can use a game application more intuitively by detecting an actual state of a user or device using the device and applying the same to a game application being executed in the device .

최근, 정보 통신 기술 및 네트워크 기술이 발달됨에 따라 디바이스는 다양한 기능들을 갖는 멀티미디어형 휴대기기로 진화하고 있으며, 근래 들어서는 디바이스의 위치 또는 디바이스의 상태를 나타내는 정보들을 감지할 수 있는 센서들을 구비하고 있다. 2. Description of the Related Art As information and communication technologies and network technologies have been developed in recent years, devices have evolved into multimedia portable devices having various functions. Recently, devices have been provided with sensors capable of sensing information indicating the position of the device or the state of the device.

종래의 디바이스는 사용자의 입력을 기초로 사용자의 입력에 대응되는 동작들을 단순히 수행하였다. 한편, 디바이스에서 획득할 수 있는 정보가 증가함에 따라, 사용자의 입력에 단순히 대응되는 동작이 아닌 사용자의 실제 상황을 반영하여 동작할 수 있는 애플리케이션을 제공하기 위한 연구 및 개발이 지속적으로 이루어지고 있다. Conventional devices have simply performed operations corresponding to the user's input based on the user's input. On the other hand, as the information obtainable in the device increases, research and development are continuously carried out to provide an application that can operate in accordance with the user's actual situation rather than simply corresponding to the user's input.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-described background technology is technical information that the inventor holds for the derivation of the present invention or acquired in the process of deriving the present invention, and can not necessarily be a known technology disclosed to the general public prior to the filing of the present invention.

본 발명의 실시예들은 디바이스를 사용하는 유저 또는 디바이스의 실제 상태를 감지하여, 디바이스에서 실행되고 있는 게임 애플리케이션에 적용함으로써, 사용자가 보다 직관적으로 게임 애플리케이션을 이용할 수 있는 방법 및 디바이스를 제공한다. Embodiments of the present invention provide a method and device by which a user can more intuitively use a gaming application by sensing the actual state of the user or device using the device and applying it to the gaming application being executed in the device.

본 발명의 일 실시예에 따른 게임 서비스를 제공하는 방법은 위치 정보 획득부에 포함된 GPS 센서 및 지자기 센서 중 하나 이상을 이용하여 유저 디바이스의 제 1 위치 정보를 획득하는 단계; 통신부를 통하여 적어도 하나의 다른 디바이스의 제 2 위치 정보를 획득하는 단계; 디스플레이부에 출력되는 게임 애플리케이션의 사용자 인터페이스에서, 제 1 위치 정보 및 제 2 위치 정보와 대응되는 위치에 각각 제 1 객체 및 적어도 하나의 제 2 객체를 표시하는 단계; 사용자 입력부에서 획득된 사용자 입력 및 상태 정보 획득부에서 획득된 유저 디바이스의 상태 정보를 이용하여 제어부에서 제 1 객체가 수행 가능한 동작들 중 어느 하나를 결정하는 단계; 및 제어부에서 결정된 동작에 따라 상기 제 1 객체를 제어하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of providing a game service, the method comprising: acquiring first position information of a user device using at least one of a GPS sensor and a geomagnetic sensor included in a position information acquiring unit; Acquiring second position information of at least one other device through a communication unit; Displaying a first object and at least one second object in a location corresponding to the first location information and the second location information, respectively, in a user interface of the game application output to the display unit; Determining one of the operations that the first object can perform in the control unit using the user information acquired from the user input unit and the status information of the user device acquired by the status information acquisition unit; And controlling the first object according to an operation determined by the controller.

본 발명의 일 실시예에 따른 게임 서비스를 제공하는 디바이스는 GPS 센서 및 지자기 센서 중 하나 이상을 이용하여 디바이스의 제 1 위치 정보를 획득하는 위치 정보 획득부; 디바이스에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스의 제 2 위치 정보를 획득하는 통신부; 게임 애플리케이션의 사용자 인터페이스 상에, 제 1 위치 정보 및 제 2 위치 정보와 대응되는 위치에 각각 제 1 객체 및 적어도 하나의 제 2 객체를 표시하는 디스플레이부; 사용자 입력을 획득하는 사용자 입력부; 디바이스의 상태 정보를 획득하는 상태 정보 획득부 및 획득한 사용자 입력 및 획득한 유저 디바이스의 상태 정보를 이용하여 게임 애플리케이션 실행 시, 제 1 객체가 수행 가능한 동작들 중 어느 하나를 결정하고, 결정된 동작에 따라 제 1 객체를 제어하는 제어부를 포함하는 게임 서비스를 제공한다. A device for providing a game service according to an embodiment of the present invention includes a position information obtaining unit for obtaining first position information of a device using at least one of a GPS sensor and a geomagnetic sensor; A communication unit for acquiring second position information of at least one other device connected to a server of a game application executed in the device; A display unit displaying a first object and at least one second object at positions corresponding to the first position information and the second position information, respectively, on a user interface of the game application; A user input unit for acquiring user input; A status information acquisition unit for acquiring status information of the device, and status information of the acquired user input and the obtained user device to determine any one of the operations that the first object can perform at the time of executing the game application, And a control unit for controlling the first object according to the game information.

본 발명의 다른 일 실시예는 컴퓨터를 이용하여 상기 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램을 개시한다. Another embodiment of the present invention discloses a computer program stored on a medium for executing the method using a computer.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

이와 같은 본 발명에 의해서, 사용자가 보다 직관적으로 게임 애플리케이션을 이용할 수 있는 효과를 얻을 수 있다. According to the present invention as described above, the effect that the user can use the game application more intuitively can be obtained.

도 1은 본 발명의 일 실시예에 따른 게임 서비스를 제공하는 방법을 설명하기 위한 개념도이다.
도 2는 일 실시예에 따른 디바이스가 게임 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 유저 디바이스가 획득한 제 1 위치 정보 및 제 2 위치 정보에 기초하여, 게임 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 유저 디바이스가 게임 애플리케이션 실행 시 수행 가능한 동작들 중, 적어도 하나를 선택하는 방법을 구체적으로 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 유저 디바이스가 게임 애플리케이션 실행 시 수행 가능한 동작들 중, 적어도 하나를 선택하는 방법을 구체적으로 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 유저 디바이스가 적어도 하나의 제 2 객체 중에서 선택된 제 2 객체를 제 1 객체와 함께 사용자 인터페이스에 표시하는 방법을 설명하기 위한 흐름도이다.
도 7은 일 실시예에 따른 동일한 그룹에 포함되어 있는 사용자들 간에 게임 서비스를 이용하는 경우, 유저 디바이스의 사용자 인터페이스를 도시한 도면이다.
도 8은 일 실시예에 따른 유저 디바이스가 제 1 객체와 선택된 제 2 객체 간의 위치 차이에 기초하여 변경된 유저 디바이스의 사용자 인터페이스를 도시한 도면이다.
도 9는 일 실시예에 따른 유저 디바이스가 제 1 객체와 기 설정된 범위 이내의 레벨을 갖는 제 2 객체를 표시한 유저 디바이스의 사용자 인터페이스를 도시한 도면이다.
도 10은 일 실시예에 따른 유저 디바이스가 획득한 사용자의 상태 변경을 나타내는 컨텍스트 정보에 따라, 제 1 객체가 수행 가능한 동작을 결정하는 방법을 설명하기 위한 흐름도이다.
도 11은 일 실시예에 따른 유저 디바이스의 사용자의 상태가 변경된 경우, 제 1 객체가 수행 가능한 동작이 변경되는 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 유저 디바이스의 구성을 설명하기 위한 블록 구성도이다.
도 13은 본 발명의 다른 실시예에 따른 유저 디바이스의 구성을 설명하기 위한 블록 구성도이다.
1 is a conceptual diagram for explaining a method of providing a game service according to an embodiment of the present invention.
2 is a flowchart illustrating a method of providing a game service by a device according to an embodiment.
3 is a diagram for explaining a method of providing a game service based on first position information and second position information acquired by a user device according to an embodiment.
FIG. 4 is a flowchart illustrating a method for selecting at least one of operations that can be performed when a user device executes a game application according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining a method for selecting at least one of operations that can be performed when a user device executes a game application according to an embodiment.
6 is a flowchart illustrating a method of displaying a second object selected from at least one second object on a user interface together with a first object according to an embodiment of the present invention.
7 is a diagram illustrating a user interface of a user device when a game service is used among users included in the same group according to an embodiment.
8 is a diagram showing a user interface of a user device, which is changed based on a positional difference between a first object and a selected second object, according to an embodiment.
9 is a diagram illustrating a user interface of a user device displaying a first object and a second object having a level within a predetermined range according to an embodiment of the present invention.
10 is a flowchart illustrating a method for determining an operation that can be performed by a first object according to context information indicating a state change of a user acquired by a user device according to an exemplary embodiment.
FIG. 11 is a diagram for explaining a method in which, when a user's state of a user device is changed according to an embodiment, an operation that can be performed by the first object is changed.
12 is a block diagram illustrating a configuration of a user device according to an embodiment of the present invention.
13 is a block diagram illustrating a configuration of a user device according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added. Also, in the drawings, for convenience of explanation, the components may be exaggerated or reduced in size. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and thus the present invention is not necessarily limited to those shown in the drawings.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

명세서 전체에서 게임 애플리케이션은 사용자들에게 가상의 환경에서 제공되는 특정한 업무를 수행하도록 함으로써 엔터테인먼트 기능을 실현하는 일련의 컴퓨터 프로그램 집합을 말한다. 본 명세서에 기술되는 게임 애플리케이션은 다양할 수 있다. 예를 들어, 스포츠 게임 애플리케이션, MMORPG(Massive Multiplayer Online Role Playing Game) 애플리케이션, RPG(Role Playing Game) 애플리케이션 및 FPS(First Person Shooter) 게임 애플리케이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.Throughout the specification, a game application refers to a set of computer programs that realize an entertainment function by allowing users to perform specific tasks provided in a virtual environment. The game applications described herein may vary. For example, a sports game application, a Massive Multiplayer Online Role Playing Game (MMORPG) application, a Role Playing Game (RPG) application, and a First Person Shooter (FPS) game application may be used.

도 1은 본 발명의 일 실시예에 따른 게임 서비스를 제공하는 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a method of providing a game service according to an embodiment of the present invention.

도 1을 참조하면, 게임 서비스를 제공하는 디바이스(100, 이하, 디바이스)는 적어도 하나의 종류의 게임 애플리케이션을 실행할 수 있다. Referring to FIG. 1, a device 100 (hereinafter, a device) that provides a game service can execute at least one kind of game application.

일 실시예에 따르면, 디바이스(100)는 디바이스(100)의 위치 정보를 획득할 수 있다. 또한, 디바이스(100)는 디바이스(100)가 이동하는 경우, 이동 속도 정보 및 이동 시간 정보 등을 획득하여, 변경되는 디바이스(100)의 위치 정보를 결정할 수 있다.According to one embodiment, the device 100 may obtain location information of the device 100. In addition, when the device 100 moves, the device 100 can acquire the moving speed information, the moving time information, and the like and determine the position information of the device 100 to be changed.

한편, 디바이스(100)는 적어도 하나의 다른 디바이스(20, 30, 40)의 위치 정보를 획득할 수 있다. 여기에서, 적어도 하나의 다른 디바이스(20, 30, 40)는 디바이스(100)에서 실행되는 게임 애플리케이션의 서버에 접속하고 있는 디바이스에 해당할 수 있다. 한편, 게임 애플리케이션의 서버는 제공하는 게임 서비스의 형태에 따라 복수개의 서버들로 구성될 수도 있다. On the other hand, the device 100 may obtain positional information of at least one other device 20, 30, 40. Here, the at least one other device 20, 30, 40 may correspond to a device connected to a server of a game application executed in the device 100. The server of the game application may be composed of a plurality of servers according to the type of the game service to be provided.

디바이스(100)는 게임 애플리케이션 실행 시 출력되는 사용자 인터페이스에서 디바이스(100) 자신의 제 1 위치 정보 및 적어도 하나의 다른 디바이스의 제 2 위치 정보와 대응되는 위치에 제 1 객체(15) 및 적어도 하나의 제 2 객체(25, 35, 45)를 표시할 수 있다. 여기에서, 객체는 게임 애플리케이션 실행 시, 사용자의 명령에 따라, 동작을 수행하는 주체인 캐릭터를 나타낼 수 있다. 객체는 이미지의 형태로 표시될 수 있다. 일 실시예에 따른 디바이스(100)는 실제의 다른 디바이스(예를 들어, 20)와의 위치 차이를 고려하여, 사용자 인터페이스 상에 제 1 객체(15) 및 제 2 객체(예를 들어, 25)를 표시할 수 있다. The device 100 includes a first object 15 and a second object 15 at a position corresponding to the first position information of the device 100 itself and the second position information of the at least one other device in a user interface outputted when the game application is executed, The second object 25, 35, 45 can be displayed. Here, when the game application is executed, the object may represent a character, which is a subject of performing an action, according to a command of the user. The object can be displayed in the form of an image. The device 100 according to one embodiment may include a first object 15 and a second object (e.g., 25) on the user interface, taking into account the positional difference with another actual device (e.g., 20) Can be displayed.

디바이스(100)는 사용자 입력을 획득할 수 있다. 사용자 입력은 사용자 입력이 획득된 시간의 길이 및 사용자 입력의 유형 중 적어도 하나에 따라 식별될 수 있다. 여기에서, 사용자 입력의 유형은 디바이스(100)에 사용자 입력을 인식시키는 전기적 신호의 발생 원인, 사용자 입력 동작의 형태 등에 따라 결정될 수 있다. 사용자 입력의 유형은 디바이스(100)에 사용자 입력을 인식시키는 전기적 신호의 발생 원인에 따라 키 입력, 터치 입력 및 호버링(hovering) 입력으로 식별 가능하지만, 이에 한정되는 것은 아니다. 또한, 사용자 입력의 유형은, 원을 그리는 동작, 상하로 움직이는 동작, 좌우로 움직이는 동작 및 좌우로 2번 움직이는 동작 등과 같이 사용자 입력 동작의 패턴에 따라 식별될 수 있다.Device 100 may obtain user input. The user input may be identified according to at least one of the length of time the user input was obtained and the type of user input. Here, the type of the user input may be determined according to the cause of the generation of the electrical signal for recognizing the user input in the device 100, the type of the user input operation, and the like. The type of the user input can be identified by a key input, a touch input, and a hovering input according to a cause of generation of an electrical signal for recognizing a user input to the device 100, but is not limited thereto. Also, the type of user input may be identified according to a pattern of user input operations, such as a circle drawing operation, an up and down movement, a left and right movement, and a left and right movement.

디바이스(100)는 획득한 사용자 입력에 따라 게임 애플리케이션에서 제 1 객체가 수행 가능한 복수의 동작들 중 어느 하나를 선택할 수 있다. 예를 들어, 디바이스(100)는 게임 애플리케이션의 메타데이터를 이용하여, 획득한 사용자 입력과 대응되는 동작을 결정할 수 있다. 게임 애플리케이션의 메타데이터에는 게임 애플리케이션에서 수행 가능한 복수의 동작들과 대응되는 사용자 입력에 대한 정보 등이 포함될 수 있다. The device 100 may select any of a plurality of operations that the first object can perform in the game application according to the acquired user input. For example, the device 100 may use the metadata of the game application to determine an action corresponding to the acquired user input. The metadata of the game application may include a plurality of operations that can be performed in the game application, information on corresponding user inputs, and the like.

일 실시예에 따른 디바이스(100)는 사용자의 상태를 나타내는 컨텍스트 정보를 획득할 수 있다. 사용자의 상태는 사용자가 위치한 장소의 종류, 사용자가 구비하고 있는 물품, 사용자가 구매한 물품 등에 따라 결정될 수 있다. 여기에서, 컨텍스트 정보는 QR 코드 정보(Quick Response Code) 또는 바코드(Bar Code) 정보를 포함할 수 있다. 예를 들어, 사용자가 디바이스(100)를 코드 인식 기기에 접촉하는 경우, 디바이스(100)는 사용자가 구매한 물품 등에 대한 정보를 획득할 수 있다. 다만, 이는 일 실시예일 뿐, 컨텍스트 정보가 전술한 바에 한정되는 것은 아니다. The device 100 according to one embodiment may obtain context information indicating the status of the user. The state of the user can be determined according to the type of the place where the user is located, the article provided by the user, the article purchased by the user, and the like. Here, the context information may include QR code information (Quick Response Code) or bar code information. For example, when the user contacts the code-recognition device 100, the device 100 may obtain information about the article or the like purchased by the user. However, this is only an embodiment, and the context information is not limited to the above.

다른 실시예에 따라, 디바이스(100)는 NFC 또는 블루투스 등의 근거리 통신 등을 통해 컨텍스트 정보를 획득할 수도 있다. 예를 들어, 디바이스(100)가 사용자가 위치한 레스토랑에 구비된 통신 기기와 근거리 통신을 수행하여, 사용자가 위치한 장소의 정보에 대한 정보를 획득할 수 있다. According to another embodiment, the device 100 may acquire context information through, for example, NFC or Bluetooth over a short distance communication. For example, the device 100 may perform close-range communication with a communication device provided at a restaurant where the user is located, so as to obtain information on information of a place where the user is located.

또 다른 실시예에 따라, 디바이스(100)는 사용자가 단말기를 통해 입력하는 상태 식별 번호를 통해 컨텍스트 정보를 획득할 수도 있다. 예를 들어, 디바이스(100)는 사용자가 디바이스(100)에 입력하는 쿠폰 번호를 통해, 사용자가 구매한 물품 등에 대한 정보를 획득할 수 있다. According to another embodiment, the device 100 may obtain context information via a status identification number that the user enters via the terminal. For example, the device 100 can acquire information on articles purchased by the user through a coupon number entered by the user into the device 100. [

디바이스(100)는 획득한 컨텍스트 정보를 이용하여, 게임 애플리케이션에서 제 1 객체가 수행할 수 있는 동작들을 변경할 수 있다. 이에 대해서는 도 10 및 도 11을 참조하여 보다 구체적으로 후술하도록 한다. The device 100 may use the acquired context information to change the actions that the first object can perform in the game application. This will be described later in more detail with reference to FIG. 10 and FIG.

디바이스(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 디바이스(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The device 100 may be implemented in various forms. For example, the device 100 described herein may be, but is not limited to, a cell phone, a smart phone, a laptop computer, a tablet PC, and the like.

도 2는 일 실시예에 따른 디바이스(100)가 게임 서비스를 제공하는 방법을 설명하기 위한 흐름도이다. 이하에서는 디바이스(100)를 다른 디바이스(예를 들어, 20)와 구별하기 위해 유저 디바이스(100)로 설명하도록 한다. 2 is a flowchart illustrating a method of providing a game service by the device 100 according to an embodiment. Hereinafter, the user device 100 will be described in order to distinguish the device 100 from other devices (e.g., 20).

단계 S210에서, 유저 디바이스(100)는 유저 디바이스(100)의 제 1 위치 정보 및 유저 디바이스(100)에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득한다. In step S210, the user device 100 receives the first location information of the user device 100 and the location information of at least one other device 20, 30, 40 connected to the server of the game application executed in the user device 100 2 position information.

유저 디바이스(100)는 구비된 위치 센서(미도시)를 이용하여, 제 1 위치 정보를 획득할 수 있다. 다른 예에 따라, 유저 디바이스(100)는 사용자가 착용하고 있는 다른 유저 디바이스를 이용하여 제 1 위치 정보를 획득할 수도 있다. 예를 들어, 사용자가 스마트 워치와 같은 웨어러블(wearable) 디바이스를 착용하고 있는 경우, 유저 디바이스(100)는 스마트 워치와 통신하여 제 1 위치 정보를 획득할 수 있다. The user device 100 can acquire first position information using a position sensor (not shown) provided. According to another example, the user device 100 may acquire the first position information using another user device worn by the user. For example, if the user wears a wearable device such as a smart watch, the user device 100 may communicate with the smart watch to obtain the first location information.

또한, 유저 디바이스(100)는 실행되고 있는 게임 애플리케이션의 서버로부터, 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득할 수 있다. 다른 예에 따라, 유저 디바이스(100)는 적어도 하나의 다른 디바이스(20, 30, 40)와 통신하여, 위치 정보를 획득할 수도 있다. 유저 디바이스(100)는 적어도 하나의 다른 디바이스(20, 30, 40)와 통신을 수행하기 위해 게임 애플리케이션의 서버로부터 적어도 하나의 다른 디바이스(20, 30, 40)와 통신을 수행하는데 필요한 식별 정보들을 획득할 수 있다. 식별 정보에는 예를 들어, 적어도 하나의 다른 디바이스(20, 30, 40) 각각의 IP(Internet Protocol) 주소 정보 등이 포함될 수 있다. 유저 디바이스(100)는 획득한 식별 정보를 이용하여, 적어도 하나의 다른 디바이스(20, 30, 40)와 통신 연결을 수행할 수 있다. Also, the user device 100 can obtain the second location information of at least one other device 20, 30, 40 from the server of the game application being executed. According to another example, the user device 100 may communicate with at least one other device 20, 30, 40 to obtain location information. The user device 100 is capable of providing identification information necessary for communicating with at least one other device 20, 30, 40 from the server of the game application to perform communication with at least one other device 20, Can be obtained. For example, the identification information may include IP (Internet Protocol) address information of each of the at least one other device 20, 30, 40, and the like. The user device 100 can perform a communication connection with at least one other device 20, 30, 40 using the acquired identification information.

단계 S220에서, 유저 디바이스(100)는 게임 애플리케이션의 사용자 인터페이스에서, 제 1 위치 정보 및 제 2 위치 정보와 대응되는 위치에 각각 제 1 객체(15) 및 적어도 하나의 제 2 객체(25, 35, 45)를 표시할 수 있다. In step S220, the user device 100 displays, in the user interface of the game application, a first object 15 and at least one second object 25, 35, and 35, respectively, at positions corresponding to the first position information and the second position information, 45) can be displayed.

유저 디바이스(100)는 제 1 위치 정보와 제 2 위치 정보의 차이에 기초하여, 사용자 인터페이스에 제 1 객체(15) 및 적어도 하나의 제 2 객체(25, 35, 45)를 표시할 수 있다. 예를 들어, 제 1 위치 정보와 제 2a 위치 정보의 차이가 2차원 평면을 기준으로 (n, 2n)이고, 제 1 위치 정보와 제 2b 위치 정보의 차이가 2차원 평면을 기준으로 (2n, 3n)이며, 제 1 위치 정보와 제 2c 위치 정보의 차이가 2차원 평면을 기준으로(n, 3n)일 수 있다. 유저 디바이스(100)는 각각의 위치 정보의 차이인 (n, 2n), (2n, 3n) 및 (n, 3n)의 비율을 고려하여, 사용자 인터페이스 상에, 제 1 객체(15), 제 2a 객체(25), 제 2b 객체(35) 및 제 2c 객체(45)를 표시할 수 있다. The user device 100 may display the first object 15 and the at least one second object 25, 35, 45 on the user interface based on the difference between the first position information and the second position information. For example, if the difference between the first position information and the second position information is (n, 2n) based on the two-dimensional plane, and the difference between the first position information and the second position information is (2n, 3n), and the difference between the first position information and the second c position information may be (n, 3n) on the basis of the two-dimensional plane. The user device 100 has the first object 15 and the second object 2b on the user interface in consideration of the ratio of (n, 2n), (2n, 3n) Object 25, second b object 35, and second c object 45, as shown in FIG.

한편, 디바이스(100)는 제 1 객체(15)와 적어도 하나의 제 2 객체(예를 들어, 25)가 식별될 수 있도록 사용자 인터페이스 상에 제 1 객체(15)와 제 2 객체(예를 들어, 25)를 표시할 수 있다. 예를 들어, 디바이스(100)는 서로 다른 이미지를 이용하여, 제 1 객체(15)와 적어도 하나의 제 2 객체(예를 들어, 25)를 사용자 인터페이스 상에 표시할 수 있다. 다른 예에 따라, 디바이스(100)는 제 1 객체(15)에 하이라이트 표시를 부가하여, 사용자 인터페이스 상에 표시할 수 있다. On the other hand, the device 100 may include a first object 15 and a second object (e.g., a second object) on the user interface so that the first object 15 and at least one second object , 25) can be displayed. For example, the device 100 may display a first object 15 and at least one second object (e.g., 25) on the user interface using different images. According to another example, the device 100 may add a highlight to the first object 15 and display it on the user interface.

단계 S230에서, 유저 디바이스(100)는 획득한 사용자 입력 및 유저 디바이스(100)의 상태 정보를 이용하여 게임 애플리케이션 실행 시, 제 1 객체가 수행 가능한 동작들 중 어느 하나를 결정한다. 여기에서, 사용자 입력은 사용자 입력이 획득된 시간의 길이 및 사용자 입력의 유형 중 적어도 하나를 기초로 식별될 수 있다. 또한, 유저 디바이스(100)의 상태 정보는 유저 디바이스(100)의 기울기, 유저 디바이스(100)가 위치한 방향 및 유저 디바이스(100)의 움직임 중 적어도 하나를 기초로 식별될 수 있다. 사용자 입력 및 유저 디바이스(100)의 상태를 식별하는 방법에 대해서는 도 4 및 도 5를 참조하여, 보다 구체적으로 후술하도록 한다.In step S230, the user device 100 determines which of the operations that the first object can perform when the game application is executed using the obtained user input and the state information of the user device 100. [ Here, the user input may be identified based on at least one of the length of time the user input was acquired and the type of user input. The state information of the user device 100 may be identified based on at least one of the inclination of the user device 100, the direction in which the user device 100 is located, and the movement of the user device 100. [ A method of identifying the user input and the state of the user device 100 will be described later in more detail with reference to FIGS. 4 and 5. FIG.

게임 애플리케이션 실행 시, 제 1 객체가 수행 가능한 동작들은 게임 애플리케이션의 종류에 따라 상이할 수 있다. 예를 들어, 스포츠 게임 애플리케이션의 경우, 제 1 객체가 수행 가능한 동작들에는 공을 차는 동작 및 특정 방향으로 뛰는 동작 등이 포함될 수 있다. 다른 예에 따르면, 사격 게임 애플리케이션의 경우, 제 1 객체가 수행 가능한 동작들은 타겟을 선정하는 동작 및 선정된 타겟에 총을 쏘는 동작 등이 포함될 수 있다.When the game application is executed, the operations that can be performed by the first object may differ depending on the type of the game application. For example, in the case of a sports game application, the operations that can be performed by the first object may include an operation of skipping the ball and an operation of jumping in a specific direction. According to another example, in the case of a shooting game application, operations that can be performed by the first object may include an operation of selecting a target, a shooting operation on a predetermined target, and the like.

한편, 유저 디바이스(100)에는 실행되는 게임 애플리케이션에 관한 메타데이터가 저장될 수 있다. 게임 애플리케이션에 관한 메타데이터에는 게임 애플리케이션 실행 시 수행 가능한 동작 및 게임 애플리케이션 실행 시 동작을 수행하기 위한 사용자 입력 또는 디바이스(100)의 상태 정보 등에 대한 정보가 저장될 수 있다. On the other hand, the user device 100 may store metadata related to the game application to be executed. The metadata related to the game application may store information on the operation that can be performed when the game application is executed and the user input to perform the operation when the game application is executed or the status information of the device 100, for example.

예를 들어, 게임 애플리케이션에 관한 메타데이터에는 특정 동작과 대응되는 사용자 입력 및 디바이스(100)의 상태 정보 중 적어도 하나를 나타내는 식별값이 저장될 수 있다. 유저 디바이스(100)는 획득한 사용자 입력 및 유저 디바이스(100)의 상태 정보를 나타내는 식별값과 게임 애플리케이션에 관한 메타데이터에 저장되는 식별값을 비교하여, 제 1 객체(15)가 수행 가능한 동작들 중 어느 하나를 결정할 수 있다. For example, the metadata about the game application may store an identification value indicating at least one of user input corresponding to a specific operation and status information of the device 100. [ The user device 100 compares the obtained user input and the identification value indicating the status information of the user device 100 with the identification value stored in the metadata relating to the game application, Can be determined.

단계 S240에서, 유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어한다. 여기에서, 결정된 동작에는 결정된 동작의 타겟이 되는 대상에 대한 정보가 포함될 수 있다. 예를 들어, 결정된 동작이 제 2a 객체(25)에 미사일을 발사하는 동작인 경우, 유저 디바이스(100)는 제 1 객체(15)가 제 2a 객체(25)에 미사일을 발사하도록 게임 애플리케이션을 실행할 수 있다. In step S240, the user device 100 controls the first object 15 according to the determined operation. Here, the determined operation may include information on the target that is the target of the determined operation. For example, if the determined action is an action to fire a missile on the 2a object 25, the user device 100 will execute the game application to cause the first object 15 to fire the missile on the 2a object 25 .

유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어한 결과를 사용자 인터페이스 상에 출력할 수 있다. 예를 들어, 제 1 객체(15)가 제 2a 객체(25)에 미사일을 발사하도록 게임 애플리케이션이 실행된 경우, 제 2a 객체(25)가 미사일에 의해 폭파되는 이미지를 사용자 인터페이스 상에 출력할 수 있다.The user device 100 may output the result of controlling the first object 15 according to the determined operation on the user interface. For example, if the game application is launched such that the first object 15 launches a missile on the 2a object 25, the 2a object 25 may output an image on the user interface that is blown up by the missile have.

도 3은 일 실시예에 따른 유저 디바이스(310)가 획득한 제 1 위치 정보 및 제 2 위치 정보에 기초하여, 게임 서비스를 제공하는 방법을 설명하기 위한 도면이다. FIG. 3 is a diagram for explaining a method of providing a game service based on first position information and second position information acquired by the user device 310 according to an embodiment.

도 3의 (a)를 참조하면, 유저 디바이스(310)는 유저 디바이스(310)의 제 1 위치 정보 및 다른 디바이스(320)의 제 2 위치 정보를 획득할 수 있다. 유저 디바이스(310)는 게임 애플리케이션이 실행되는 사용자 인터페이스에서, 제 1 위치 정보와 제 2 위치 정보에 대응되는 위치에 제 1 객체(315) 및 제 2 객체(325)를 표시할 수 있다. Referring to FIG. 3 (a), the user device 310 may obtain the first position information of the user device 310 and the second position information of the other device 320. The user device 310 can display the first object 315 and the second object 325 at a position corresponding to the first position information and the second position information in the user interface in which the game application is executed.

제 1 객체(315) 및 제 2 객체(325)는 각각 게임 애플리케이션에서의 사용자의 레벨에 따라 서로 다른 이미지로 표시될 수 있다. 다른 예에 따라, 제 1 객체(315) 및 제 2 객체(325)는 각각 사용자가 게임 애플리케이션 실행 시, 선택한 캐릭터의 종류에 따라 서로 다른 이미지로 표시될 수도 있다. 또한, 유저 디바이스(310)는 사용자가 자신의 캐릭터를 식별할 수 있도록 제 1 객체(315)에 식별 표시를 나타낼 수 있다. The first object 315 and the second object 325 may be displayed as different images according to the level of the user in the game application, respectively. According to another example, each of the first object 315 and the second object 325 may be displayed as a different image depending on the type of the selected character when the user executes the game application. Also, the user device 310 may display an identification mark on the first object 315 so that the user can identify his / her character.

한편, 유저 디바이스(310)는 획득한 사용자 입력 및 유저 디바이스(310)의 상태 정보를 이용하여, 게임 애플리케이션 실행 시, 제 1 객체(15)가 수행 가능한 동작들 중 어느 하나를 결정할 수 있다. 예를 들어, 유저 디바이스(310)는 사용자가 유저 디바이스(310)의 화면을 아래에서 위로 드래그(drag)하는 동작에 의해 발생되는 터치 입력을 획득할 수 있다. 드래그는 사용자가 손가락이나 터치 도구를 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. On the other hand, the user device 310 can determine any one of the operations that the first object 15 can perform at the time of executing the game application, using the obtained user input and the state information of the user device 310. [ For example, the user device 310 may obtain the touch input generated by the user dragging the screen of the user device 310 from the bottom up. Drag refers to an operation of moving a finger or a touch tool to another position on the screen while the user holds the touch after touching the finger or the touch tool on the screen.

사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 화면을 드래그하는 동작을 수행하는 경우, 유저 디바이스(310)는 제 1 객체(15)의 동작을 미사일을 발사하는 동작으로 결정할 수 있다.When the user performs an operation of dragging the screen at a critical speed (for example, 100 pixel / s) or more using a finger or a touch tool, the user device 310 can perform the operation of the first object 15 by emitting a missile Can be determined by operation.

또한, 발사되는 미사일의 방향 및 기울기는 유저 디바이스(100)의 방향 및 기울기에 의해 결정될 수 있다. 다른 예에 따라, 위치를 변경하여 미사일을 발사하도록 제 1 객체(15)를 제어하고자 하는 경우, 사용자는 유저 디바이스(100)의 위치를 변경하여, 전술한 동작을 수행할 수 있다.In addition, the direction and tilt of the missile to be launched can be determined by the direction and slope of the user device 100. According to another example, when it is desired to control the first object 15 to change the position and fire the missile, the user can change the position of the user device 100 and perform the above-mentioned operations.

게임 애플리케이션에서, 제 1 객체(15)가 수행 가능한 동작들은 제 1 위치 정보와 제 2 위치 정보 간의 차이에 따라 결정될 수 있다. 예를 들어, 2차원 평면에서의 제 1 위치 정보와 제 2 위치 정보 간의 차이가 (2n, 2n) 미만인 경우, 제 1 객체(15)가 제 2 객체(25)에 발사할 수 있는 미사일의 종류는 a 타입과 b 타입으로 한정될 수 있다. In a game application, operations that can be performed by the first object 15 may be determined according to a difference between the first position information and the second position information. For example, if the difference between the first position information and the second position information in the two-dimensional plane is less than (2n, 2n), then the first object 15 will be able to determine the type of missile May be limited to a type and b type.

한편, 유저 디바이스(310)는 제 1 객체(15)가 결정된 방향 및 기울기에 따라 제 2 객체(25)에 미사일을 발사하도록 제어할 수 있다. 유저 디바이스(310)의 사용자 인터페이스는 미사일을 발사한 결과를 나타내는 이미지가 출력될 수 있다.Meanwhile, the user device 310 may control the first object 15 to fire the missile on the second object 25 according to the determined direction and slope. The user interface of the user device 310 may output an image indicating the result of launching the missile.

도 3의 (b)를 참조하면, 유저 디바이스(310)는 게임 애플리케이션이 실행되는 사용자 인터페이스에서, 제 1 위치 정보와 제 2 위치 정보에 대응되는 위치에 제 1 객체(315) 및 제 2 객체(325)를 표시할 수 있다. Referring to FIG. 3B, the user device 310 displays a first object 315 and a second object 315 in a position corresponding to the first position information and the second position information, 325) can be displayed.

도 3의 (b)에서, 유저 디바이스(310)의 사용자의 위치와 다른 디바이스(320)의 사용자의 위치의 차이가 도 3의 (a)의 경우에 비해 크기 때문에, 유저 디바이스(310)의 사용자 인터페이스 상에 표시되는 제 1 객체(315) 및 제 2 객체(325)의 위치의 차이도 커질 수 있다.3B, since the difference between the position of the user of the user device 310 and the position of the user of the other device 320 is larger than that of the case of FIG. 3A, the user of the user device 310 The difference between the positions of the first object 315 and the second object 325 displayed on the interface may be large.

한편, 게임 애플리케이션에서, 제 1 객체(315)가 수행 가능한 동작들은 제 1 위치 정보와 제 2 위치 정보 간의 차이에 따라 결정될 수 있다. 예를 들어, 2차원 평면에서의 제 1 위치 정보와 제 2 위치 정보 간의 차이가 (3n, 3n) 이상인 경우, 제 1 객체(315)가 제 2 객체(325)에 발사할 수 있는 미사일의 종류는 c 타입과 d 타입으로 한정될 수 있다.On the other hand, in the game application, the operations that the first object 315 can perform can be determined according to the difference between the first position information and the second position information. For example, if the difference between the first position information and the second position information in the two-dimensional plane is equal to or greater than (3n, 3n), the first object 315 may be a missile type Can be limited to c-type and d-type.

도 3의 (b)에서, 유저 디바이스(100)가 획득한 사용자의 입력 및 디바이스의 상태 정보에 따라 동작을 결정하여 제 1 객체(15)를 제어하는 방법은 도 3의 (a)를 참조하여 전술한 바와 대응될 수 있다. 3 (b), a method of controlling the first object 15 by determining the operation according to the input of the user and the state information of the device acquired by the user device 100 will be described with reference to FIG. 3 (a) May correspond to the above.

도 4는 일 실시예에 따른 유저 디바이스(100)가 게임 애플리케이션 실행 시 수행 가능한 동작들 중, 적어도 하나를 선택하는 방법을 구체적으로 설명하기 위한 흐름도이다. FIG. 4 is a flowchart specifically illustrating a method of selecting at least one of operations that can be performed when the user device 100 executes a game application according to an embodiment.

단계 S410에서, 유저 디바이스(100)는 유저 디바이스(100)의 제 1 위치 정보 및 유저 디바이스(100)에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득한다.In step S410, the user device 100 receives the first location information of the user device 100 and the location information of at least one other device 20, 30, 40 connected to the server of the game application executed in the user device 100 2 position information.

한편, 단계 S410은 도 2를 참조하여 전술한 단계 S210과 대응될 수 있다.On the other hand, step S410 may correspond to step S210 described above with reference to FIG.

단계 S420에서, 유저 디바이스(100)는 게임 애플리케이션의 사용자 인터페이스에서, 제 1 위치 정보 및 제 2 위치 정보와 대응되는 위치에 각각 제 1 객체(15) 및 적어도 하나의 제 2 객체(25, 35, 45)를 표시할 수 있다. In step S420, the user device 100 displays a first object 15 and at least one second object 25, 35, and 35 in a position corresponding to the first position information and the second position information, respectively, 45) can be displayed.

한편, 단계 S420은 도 2를 참조하여 전술한 단계 S220과 대응될 수 있다.On the other hand, step S420 may correspond to step S220 described above with reference to FIG.

단계 S430에서, 유저 디바이스(100)는 유저 디바이스(100)의 기울기, 유저 디바이스(100)가 위치한 방향 및 유저 디바이스(100)의 움직임 중 적어도 하나를 기초로 유저 디바이스(100)의 상태를 식별할 수 있다. In step S430, the user device 100 identifies the state of the user device 100 based on at least one of the inclination of the user device 100, the direction in which the user device 100 is located, and the movement of the user device 100 .

예를 들어, 유저 디바이스(100)가 수평면을 기준으로 45도 각도로 위치한 경우와 30도 각도로 위치한 경우 유저 디바이스(100)의 상태는 서로 식별될 수 있다. 다른 예에 따라, 유저 디바이스(100)가 남쪽 방향을 향해 위치한 경우와 남동쪽 방향을 향해 위치한 경우 유저 디바이스(100)의 상태는 서로 식별될 수 있다. 이 때, 방향은 유저 디바이스(100)에서 미리 설정된 일 측면을 기준으로 결정될 수 있다. 예를 들어, 유저 디바이스(100)의 카메라 렌즈가 구비된 일 측면이 향하는 방향이 디바이스(100)가 위치한 방향으로 결정될 수 있다. 또 다른 예에 따라, 유저 디바이스(100)가 상하로 움직이는 경우와 좌우로 움직이는 경우의 유저 디바이스(100)의 상태는 서로 식별될 수 있다. For example, the states of the user device 100 can be distinguished from each other when the user device 100 is located at a 45 degree angle with respect to the horizontal plane and when positioned at a 30 degree angle. According to another example, the states of the user device 100 can be distinguished from each other when the user device 100 is located toward the south direction and when located toward the southeast direction. At this time, the direction can be determined on the basis of one side preset in the user device 100. For example, the direction in which one side of the user device 100 with the camera lens faces may be determined as the direction in which the device 100 is located. According to another example, the states of the user device 100 when the user device 100 moves up and down and the case where the user device 100 moves left and right can be distinguished from each other.

단계 S440에서, 유저 디바이스(100)는 사용자 입력이 획득된 시간의 길이 및 사용자 입력의 유형 중 적어도 하나를 기초로 획득한 사용자 입력을 식별할 수 있다. 예를 들어, 2초 동안 입력된 터치 입력과 5초 동안 입력된 터치 입력은 식별될 수 있다. 또한, 터치 입력과 호버링 입력은 식별될 수 있다. 다른 예에 따라, 원을 그리는 동작에 의해 발생된 터치 입력과 상하로 움직이는 동작에 의해 발생된 터치 입력은 식별될 수 있다.In step S440, the user device 100 may identify the user input obtained based on at least one of the length of time the user input was obtained and the type of user input. For example, a touch input input for two seconds and a touch input input for five seconds may be identified. In addition, the touch input and the hovering input can be identified. According to another example, a touch input generated by an operation of drawing a circle and a touch input generated by an operation of moving up and down can be identified.

한편, 단계 S430과 단계 S440은 설명의 편의상 순차적으로 기술한 것일 뿐, 동시에 수행되는 것이 가능하고, 단계 S440 및 단계 S430의 순서로 수행되는 것 또한 가능할 수 있다.On the other hand, steps S430 and S440 are described sequentially only for convenience of explanation, and can be performed simultaneously, and it is also possible to perform in the order of steps S440 and S430.

단계 S450에서, 유저 디바이스(100)는 기 저장된 게임 애플리케이션에 관한 메타데이터를 이용하여 식별된 유저 디바이스(100)의 상태 및 식별된 사용자 입력 중 적어도 하나에 대응하는 동작을 결정할 수 있다.In step S450, the user device 100 may use the metadata relating to the stored game application to determine an operation corresponding to at least one of the identified user device 100 status and the identified user input.

게임 애플리케이션에 관한 메타데이터에는 특정 동작과 대응되는 사용자 입력 및 디바이스(100)의 상태 정보 중 적어도 하나를 나타내는 식별값이 저장될 수 있다. 유저 디바이스(100)는 획득한 사용자 입력 및 유저 디바이스(100)의 상태 정보를 나타내는 식별값과 게임 애플리케이션에 관한 메타데이터에 저장되는 식별값을 비교하여, 제 1 객체(15)가 수행 가능한 동작들 중 어느 하나를 결정할 수 있다.The metadata related to the game application may be stored with an identification value indicating at least one of a user input corresponding to a specific operation and status information of the device 100. [ The user device 100 compares the obtained user input and the identification value indicating the status information of the user device 100 with the identification value stored in the metadata relating to the game application, Can be determined.

예를 들어, 유저 디바이스(100)가 유저 디바이스(100)의 화면을 아래에서 위로 2초간 드래그 하는 동작에 의해 발생되는 사용자 입력을 획득할 수 있다. 또한, 유저 디바이스(100)의 상태는 남동방향을 향하고, 수평면을 기준으로 45도의 각도만큼 기울어져 위치할 수 있다. 유저 디바이스(100)는 획득한 사용자 입력이 나타내는 식별값 a에 해당하는 동작인 미사일 발사 동작을 결정할 수 있다. 또한, 유저 디바이스(100)는 유저 디바이스(100)의 상태 정보를 나타내는 식별값 b에 대응되는 미사일의 발사 방향을 결정할 수 있다. 따라서, 유저 디바이스(100)는 획득한 사용자 입력 및 디바이스의 상태 정보를 고려하여, 결정된 발사 방향에 따라 미사일을 발사하는 동작을 결정할 수 있다. For example, the user device 100 may obtain a user input generated by an operation of dragging the screen of the user device 100 from the bottom to the top for two seconds. In addition, the state of the user device 100 may be oriented in the southeast direction and inclined at an angle of 45 degrees with respect to the horizontal plane. The user device 100 can determine a missile launch operation, which is an operation corresponding to the identification value a indicated by the acquired user input. Also, the user device 100 can determine the launch direction of the missile corresponding to the identification value b indicating the state information of the user device 100. [ Accordingly, the user device 100 can determine the operation of firing the missile according to the determined firing direction in consideration of the acquired user input and the device status information.

단계 S460에서, 유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어한다. 유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어한 결과를 사용자 인터페이스 상에 출력할 수 있다.In step S460, the user device 100 controls the first object 15 according to the determined operation. The user device 100 may output the result of controlling the first object 15 according to the determined operation on the user interface.

한편, 단계 S460은 도 2를 참조하여 전술한 단계 240과 대응될 수 있다.Step S460 may correspond to step 240 described above with reference to FIG.

도 5는 일 실시예에 따른 유저 디바이스(100)가 게임 애플리케이션 실행 시 수행 가능한 동작들 중, 적어도 하나를 선택하는 방법을 구체적으로 설명하기 위한 도면이다. 5 is a diagram for explaining a method for selecting at least one of the operations that can be performed when the user device 100 executes a game application according to an embodiment.

유저 디바이스(100)는 사용자 입력(510) 및 유저 디바이스(100)의 상태 정보(520, 530)를 획득할 수 있다. 일 실시예에 따른 유저 디바이스(100)의 상태 정보(520, 530)에는 유저 디바이스(100)가 위치한 방향(520) 및 유저 디바이스(100)의 기울기(530)에 관한 정보가 포함될 수 있다. The user device 100 may obtain the user input 510 and the status information 520, 530 of the user device 100. [ The state information 520 and 530 of the user device 100 according to an exemplary embodiment may include information about the direction 520 in which the user device 100 is located and the slope 530 of the user device 100. [

도 5를 참조하면, 유저 디바이스(100)는 유저 디바이스(100)의 화면을 드래그 하는 동작에 의해 발생되는 사용자 입력(510)을 획득할 수 있다. Referring to FIG. 5, the user device 100 may acquire a user input 510 generated by an operation of dragging a screen of the user device 100.

유저 디바이스(100)는 사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 화면을 드래그하는 동작의 식별값을 x로 결정할 수 있다. 유저 디바이스(100)는 게임 애플리케이션에 관한 메타데이터에서 식별값 x와 대응되는 동작을 결정할 수 있다. 예를 들어, 유저 디바이스(100)는 식별값 x에 대응되는 동작을 미사일 발사 동작으로 결정할 수 있다. The user device 100 can determine x as an identification value of an operation in which a user drags the screen at a critical speed (e.g., 100 pixel / s) using a finger or a touch tool. The user device 100 can determine an operation corresponding to the identification value x in the metadata about the game application. For example, the user device 100 may determine an operation corresponding to the identification value x as a missile launch operation.

한편, 유저 디바이스(100)는 북동쪽의 방향(520)을 향해 위치할 수 있다. 또한, 유저 디바이스(100)는 수평면을 기준으로 30도의 기울기(530)를 갖도록 위치할 수 있다. 유저 디바이스(100)는 북동쪽의 방향(520)을 향하고, 30도의 기울기(530)를 갖도록 위치한 디바이스의 상태의 식별값을 y로 결정할 수 있다. 유저 디바이스(100)는 게임 애플리케이션에 관한 메타데이터에서 식별값 y와 대응되는 동작을 결정할 수 있다. 예를 들어, 유저 디바이스(100)는 사용자 입력(510)을 기초로 결정된 미사일 발사 동작이 수행되는 방향을 식별값 y에 따라 결정할 수 있다. On the other hand, the user device 100 may be positioned toward the northeast direction 520. [ Also, the user device 100 may be positioned to have a slope 530 of 30 degrees with respect to the horizontal plane. The user device 100 may determine the identification value of the state of the device to be oriented to the north east direction 520 and to have a 30 degree slope 530 as y. The user device 100 can determine an operation corresponding to the identification value y in the metadata regarding the game application. For example, the user device 100 may determine the direction in which the determined missile launch operation is performed based on the user input 510, according to the identification value y.

유저 디바이스(100)는 사용자 입력(510) 및 디바이스의 상태 정보(520, 530)를 이용하여, 제 1 객체(540)가 북동쪽의 방향(520)으로 30도의 기울기(530)만큼 미사일을 발사하는 동작을 수행하도록 제어할 수 있다. 유저 디바이스(100)는 제 1 객체(540)가 동작을 수행한 결과에 대한 이미지를 유저 디바이스(100)의 사용자 인터페이스 상에 출력할 수 있다.The user device 100 uses the user input 510 and the device state information 520 and 530 to cause the first object 540 to fire the missile by a slope 530 of 30 degrees in the northeast direction 520 So as to perform an operation. The user device 100 may output an image of the result of the operation of the first object 540 on the user interface of the user device 100. [

한편, 전술한 사용자의 임계 속도 이상의 드래그 동작에 따라 결정된 미사일 발사 동작은 본 발명의 일 실시예일 뿐, 유저 디바이스(100)가 획득할 수 있는 사용자 입력과 이에 따라 결정되는 제 1 객체(540)의 동작이 이에 한정되는 것은 아니다. Meanwhile, the missile launch operation determined according to the drag operation of the user over the critical speed described above is only an embodiment of the present invention, and the user input that the user device 100 can acquire, and the first object 540 The operation is not limited thereto.

도 6은 일 실시예에 따른 유저 디바이스(100)가 적어도 하나의 제 2 객체(25, 35, 45) 중에서 선택된 제 2 객체(예를 들어, 25)를 제 1 객체(15)와 함께 사용자 인터페이스에 표시하는 방법을 설명하기 위한 흐름도이다. FIG. 6 illustrates an example in which a user device 100 according to an embodiment receives a second object (e.g., 25) selected from at least one second object 25, 35, 45 with a first object 15, In the case of the first embodiment of the present invention.

단계 S610에서, 유저 디바이스(100)는 유저 디바이스(100)의 제 1 위치 정보 및 유저 디바이스(100)에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득할 수 있다.In step S610, the user device 100 receives the first location information of the user device 100 and the location information of at least one other device 20, 30, 40 connected to the server of the game application executed in the user device 100 2 position information.

한편, 단계 S610은 도 2를 참조하여 전술한 단계 S210과 대응될 수 있다.On the other hand, step S610 may correspond to step S210 described above with reference to FIG.

단계 S620에서, 유저 디바이스(100)는 적어도 하나의 제 2 객체(25, 35, 45) 중에서 기 설정된 조건을 만족하는 제 2 객체(예를 들어, 25)를 제 1 객체(15)와 함께 사용자 인터페이스 상에 표시할 수 있다. In step S620, the user device 100 transmits a second object (e.g., 25) satisfying a predetermined condition among the at least one second object 25, 35, 45 to the first object 15 It can be displayed on the interface.

예를 들어, 유저 디바이스(100)는 게임 애플리케이션을 실행하는 과정에서, 생성한 가상 공간에 선택된 제 2 객체만을 초대할 수 있다. 사용자가 동일한 그룹에 포함된 다른 사용자들과 함께 게임 서비스를 이용하고자 하는 경우, 유저 디바이스(100)는 사용자의 설정에 따라 비밀키를 입력하는 다른 사용자의 제 2 객체(예를 들어, 35)만을 사용자 인터페이스 상에 표시할 수 있다. For example, in the process of executing the game application, the user device 100 may invite only the second object selected in the created virtual space. When a user desires to use the game service together with other users included in the same group, the user device 100 may transmit only the second object (for example, 35) of the other user who inputs the secret key according to the setting of the user Can be displayed on the user interface.

다른 예에 따라, 유저 디바이스(100)의 사용자 인터페이스 상에는 제 1 객체(15)와 유사한 레벨을 갖는 제 2 객체들이 표시될 수 있다. 사용자가 비슷한 게임 수행 능력을 갖는 다른 사용자와 게임 서비스를 이용하고자 하는 경우, 게임 애플리케이션의 서버에 제 1 객체(15)와 유사한 레벨을 갖는 제 2 객체들을 요청할 수 있다. 게임 애플리케이션의 서버는 사용자의 요청에 따라, 제 1 객체(15)와 유사한 레벨을 갖는 제 2 객체들을 유저 디바이스(100)의 사용자 인터페이스 상에 표시할 수 있다. 여기에서, 유사한 레벨이란, 제 1 객체(15)의 레벨로부터 기 설정된 범위 이내의 레벨을 의미할 수 있다.According to another example, second objects having a level similar to that of the first object 15 may be displayed on the user interface of the user device 100. [ When a user desires to use the game service with another user having a similar game performance capability, the user may request second objects having a level similar to that of the first object 15 to the server of the game application. The server of the game application can display second objects having a level similar to that of the first object 15 on the user interface of the user device 100 at the request of the user. Here, the similar level may mean a level within a predetermined range from the level of the first object 15.

또 다른 예에 따라, 유저 디바이스(100)는 적어도 하나의 제 2 객체 중에서 사용자가 선택한 제 2 객체를 사용자 인터페이스 상에 표시할 수 있다. 유저 디바이스(100)는 선택된 제 2 객체와 제 1 객체(15) 간의 위치 차이에 따라, 표시되는 사용자 인터페이스를 변경할 수 있다. 이에 대해서는 도 8을 참조하여, 보다 구체적으로 후술하도록 한다.According to another example, the user device 100 may display a second object selected by the user among at least one second object on the user interface. The user device 100 can change the displayed user interface according to the positional difference between the selected second object and the first object 15. [ This will be described later in more detail with reference to FIG.

또 다른 예에 따라, 유저 디바이스(100)는 유저 디바이스(100)의 위치로부터 특정 거리 범위 내에 포함되는 다른 디바이스의 제 2 객체를 사용자 인터페이스 상에 표시할 수 있다. 예를 들어, 유저 디바이스(100)의 위치를 중심으로 반경 100미터 이상부터 반경 150미터 미만의 거리 범위 내에 포함되는 다른 디바이스의 제 2 객체를 사용자 인터페이스 상에 표시할 수 있다. According to another example, the user device 100 may display on the user interface a second object of another device that is within a certain distance range from the location of the user device 100. [ For example, a second object of another device included within a distance range of from a radius of 100 meters or more to a radius of less than 150 meters around the position of the user device 100 may be displayed on the user interface.

단계 S630에서, 유저 디바이스(100)는 획득한 사용자 입력 및 유저 디바이스(100)의 상태 정보를 이용하여 게임 애플리케이션 실행 시, 제 1 객체(15)가 수행 가능한 동작들 중 어느 하나를 결정할 수 있다.In step S630, the user device 100 can determine any one of the operations that the first object 15 can perform when the game application is executed using the acquired user input and the status information of the user device 100. [

한편, 단계 S630은 도 2를 참조하여 전술한 단계 230과 대응될 수 있다.On the other hand, the step S630 may correspond to the step 230 described above with reference to FIG.

단계 S640에서, 유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어한다. 유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어한 결과를 사용자 인터페이스 상에 출력할 수 있다.In step S640, the user device 100 controls the first object 15 according to the determined operation. The user device 100 may output the result of controlling the first object 15 according to the determined operation on the user interface.

한편, 단계 S640은 도 2를 참조하여 전술한 단계 240과 대응될 수 있다.Step S640 may correspond to step 240 described above with reference to FIG.

도 7은 일 실시예에 따른 동일한 그룹에 포함되어 있는 사용자들 간에 게임 서비스를 이용하는 경우, 유저 디바이스(100)의 사용자 인터페이스를 도시한 도면이다. 7 is a diagram illustrating a user interface of the user device 100 when a game service is used among users included in the same group according to an embodiment.

유저 디바이스(100)의 사용자는 그룹을 생성하여, 그룹에 포함되는 다른 사용자들과 게임 서비스를 이용할 수 있다. 예를 들어, 유저 디바이스(100)는 게임 애플리케이션 상에서 가상 공간을 생성할 수 있다. 유저 디바이스(100)는 생성한 가상 공간에 들어오기 위한, 비밀키를 설정할 수 있다. 가상 공간은 설정된 비밀키를 입력한 사용자들의 제 2 객체들만이 입장 가능한 공간이다. A user of the user device 100 can create a group and use the game service with other users included in the group. For example, the user device 100 may create a virtual space on the game application. The user device 100 can set a secret key for entering the created virtual space. The virtual space is a space in which only the second objects of users who input the set secret key can enter.

도 7을 참조하면, 유저 디바이스(100)는 비밀키를 입력한 사용자들의 제 2 객체들(710, 720)을 유저 디바이스(100)의 제 1 객체(730)와 함께 사용자 인터페이스 상에 표시할 수 있다.7, the user device 100 may display the second objects 710 and 720 of the users who input the secret key on the user interface together with the first object 730 of the user device 100 have.

한편, 다른 실시예에 따라 유저 디바이스(100)는 게임 애플리케이션의 서버로부터 사용자와 동일한 그룹에 포함된 다른 사용자의 제 2 객체(710, 720)의 정보를 수신할 수도 있다. 유저 디바이스(100)는 수신한 제 2 객체(710, 720)의 정보를 이용하여 사용자 인터페이스 상에 제 2 객체(710, 720) 및 제 1 객체(730)를 표시할 수 있다. Meanwhile, according to another embodiment, the user device 100 may receive information of a second object 710, 720 of another user included in the same group as the user from the server of the game application. The user device 100 may display the second objects 710 and 720 and the first object 730 on the user interface using the information of the received second objects 710 and 720.

도 8은 일 실시예에 따른 유저 디바이스(100)가 제 1 객체(730)와 선택된 제 2 객체(710) 간의 위치 차이에 기초하여 변경된 유저 디바이스(100)의 사용자 인터페이스를 도시한 도면이다. 8 is a diagram showing a user interface of the user device 100 changed based on a positional difference between a first object 730 and a selected second object 710 according to an embodiment.

유저 디바이스(100)의 사용자는 유저 디바이스(100)에 표시된 제 2 객체들(710, 720) 중에서, 적어도 하나를 선택할 수 있다. 예를 들어, 사용자가 사용자 인터페이스 상에 표시된 제 2 객체들(예를 들어, 710, 720) 중에서 어느 하나를 선택하는 경우, 선택된 제 2 객체(710)가 제 1 객체(730)와 함께 사용자 인터페이스 상에 표시될 수 있다.The user of the user device 100 may select at least one of the second objects 710 and 720 displayed on the user device 100. [ For example, if the user selects any of the second objects (e.g., 710, 720) displayed on the user interface, the selected second object 710 may be associated with the first object 730, Lt; / RTI >

도 8을 참조하면, 유저 디바이스(100)는 제 1 객체(730)와 선택된 제 2 객체(710) 간의 위치 정보의 차이에 기초하여, 유저 디바이스(100)에 표시되는 사용자 인터페이스를 변경할 수 있다. 전술한 도 7과 도 8을 비교해 보면, 복수개의 제 2 객체들이 표시된 도 7에 비해, 도 8은 제 1 객체(730) 및 선택된 제 2 객체(710)가 표시된 영역을 줌 인(zoom-in)하여 사용자 인터페이스 상에 표시할 수 있다. Referring to FIG. 8, the user device 100 can change the user interface displayed on the user device 100 based on the difference in positional information between the first object 730 and the selected second object 710. 7 and FIG. 8, compared to FIG. 7 in which a plurality of second objects are displayed, FIG. 8 shows an area where the first object 730 and the selected second object 710 are displayed in a zoom-in ) And display it on the user interface.

도 9는 일 실시예에 따른 유저 디바이스(100)가 제 1 객체(910)와 기 설정된 범위 이내의 레벨을 갖는 제 2 객체를 표시한 유저 디바이스(100)의 사용자 인터페이스를 도시한 도면이다. 9 is a diagram illustrating a user interface of a user device 100 according to an exemplary embodiment of the present invention in which a user device 100 displays a first object 910 and a second object having a level within a predetermined range.

도 9의 (a)를 참조하면, 유저 디바이스(100)는 사용자 인터페이스 상에 제 1 객체(910)의 레벨과 기 설정된 범위 이내의 레벨을 갖는 제 2 객체들(920, 930)의 정보를 표시할 수 있다. 객체들의 정보에는 객체들의 이미지 및 객체들의 능력치 등이 포함될 수 있다. 9A, the user device 100 displays information on the second objects 920 and 930 having a level within the predetermined range and a level of the first object 910 on the user interface can do. The information of the objects may include an image of the objects and a capability value of the objects.

객체들의 유저 디바이스(100)는 사용자의 선택에 따라, 표시된 제 2 객체들(920, 930) 모두와 함께 게임 서비스를 이용할 수 있다. 다른 예에 따라, 유저 디바이스(100)는 제 1 객체(910)의 레벨과 기 설정된 범위 이내의 레벨을 갖는 제 2 객체들(920, 930) 중에서 선택된 제 2 객체(예를 들어, 920) 만을 제 1 객체(910)와 함께 사용자 인터페이스 상에 표시할 수 있다. The user device 100 of the objects may use the game service together with all of the displayed second objects 920 and 930, depending on the user's choice. According to another example, the user device 100 may include only a second object (e.g., 920) selected from the second objects 920 and 930 having a level within a predetermined range of the first object 910 Along with the first object 910, on the user interface.

도 9의 (b)를 참조하면, 유저 디바이스(100)는 사용자 인터페이스 상에 제 1 객체(910)의 레벨과 기 설정된 범위 이내의 레벨을 갖는 제 2 객체들(920, 930)을 표시할 수 있다. 유저 디바이스(100)는 유저 디바이스(100)의 제 1 위치 정보 및 기 설정된 범위 이내의 레벨을 갖는 제 2 객체들(920, 930)에 대응되는 다른 디바이스 간의 위치 차이에 기초하여, 사용자 인터페이스와 제 1 객체(910) 및 제 2 객체들(920, 930)을 표시할 수 있다. Referring to FIG. 9B, the user device 100 can display second objects 920 and 930 having a level within a predetermined range of the first object 910 on the user interface have. The user device 100 is configured to display the user information on the basis of the position information of the user device 100 and the position information of the other devices corresponding to the second objects 920 and 930 having a level within the predetermined range, 1 object 910 and the second objects 920 and 930. [

도 10은 일 실시예에 따른 유저 디바이스(100)가 획득한 사용자의 상태 변경을 나타내는 컨텍스트 정보에 따라, 제 1 객체가 수행 가능한 동작을 결정하는 방법을 설명하기 위한 흐름도이다.  10 is a flowchart illustrating a method for determining an action that can be performed by a first object according to context information indicating a state change of a user acquired by the user device 100 according to an exemplary embodiment.

단계 S1010에서, 유저 디바이스(100)는 유저 디바이스(100)의 제 1 위치 정보 및 유저 디바이스(100)에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득할 수 있다.In step S1010, the user device 100 receives the first location information of the user device 100 and the location information of at least one other device 20, 30, 40 connected to the server of the game application executed in the user device 100 2 position information.

한편, 단계 S1010은 도 2를 참조하여 전술한 단계 S210과 대응될 수 있다.On the other hand, step S1010 may correspond to step S210 described above with reference to FIG.

단계 S1020에서, 유저 디바이스(100)는 게임 애플리케이션의 사용자 인터페이스에서, 제 1 위치 정보 및 제 2 위치 정보와 대응되는 위치에 각각 제 1 객체(15) 및 적어도 하나의 제 2 객체(25, 35, 45)를 표시할 수 있다.In step S1020, the user device 100 displays a first object 15 and at least one second object 25, 35, and 35 in a position corresponding to the first position information and the second position information, respectively, 45) can be displayed.

한편, 단계 S1020은 도 2를 참조하여 전술한 단계 S220과 대응될 수 있다.On the other hand, step S1020 may correspond to step S220 described above with reference to FIG.

단계 S1030에서, 유저 디바이스(100)는 사용자의 상태가 변경됨을 나타내는 컨텍스트 정보를 획득할 수 있다. 사용자의 상태는 사용자가 위치한 장소의 종류, 사용자가 구비하고 있는 물품, 사용자가 구매한 물품 등에 따라 결정될 수 있다. 여기에서, 컨텍스트 정보는 QR 코드 정보(Quick Response Code) 또는 바코드(Bar Code) 정보를 포함할 수 있다. In step S1030, the user device 100 may obtain context information indicating that the status of the user is changed. The state of the user can be determined according to the type of the place where the user is located, the article provided by the user, the article purchased by the user, and the like. Here, the context information may include QR code information (Quick Response Code) or bar code information.

예를 들어, 사용자가 게임 애플리케이션 상에서 미리 정해진 가게에서, 물품을 구입한 경우, 사용자는 물품의 QR 코드 또는 바코드를 유저 디바이스(100)에 인식시킬 수 있다. 유저 디바이스(100)는 물품의 QR 코드 또는 바코드를 인식하여, 컨텍스트 정보를 획득할 수 있다. 다만, 이는 일 실시예일 뿐, 본 발명이 이에 한정되는 것은 아니다. For example, when a user purchases an item at a predetermined shop on the game application, the user can recognize the QR code or bar code of the item on the user device 100. [ The user device 100 can recognize the QR code or the bar code of the article and obtain the context information. However, this is only an embodiment, and the present invention is not limited thereto.

단계 S1040에서, 유저 디바이스(100)는 획득한 컨텍스트 정보에 따라 제 1 객체(15)가 수행 가능한 동작 가능들을 변경할 수 있다.In step S1040, the user device 100 can change the operability that the first object 15 can perform according to the acquired context information.

유저 디바이스(100)는 게임 애플리케이션에 관한 메타데이터와 획득한 컨텍스트 정보의 종류를 비교할 수 있다. 여기에서, 게임 애플리케이션에 관한 메타데이터는 게임 애플리케이션 상에서, 컨텍스트 정보에 따라 변경되는 제 1 객체의 동작 또는 제 1 객체의 특성에 관한 정보가 포함될 수 있다. 예를 들어, 게임 애플리케이션에서 제 1 객체의 능력치, 레벨 또는 제 1 객체가 구비한 아이템 등이 컨텍스트 정보에 따라 변경될 수 있다. The user device 100 can compare the type of the obtained context information with the metadata about the game application. Here, the metadata relating to the game application may include information on the operation of the first object or characteristics of the first object, which are changed according to the context information, on the game application. For example, in the game application, the attributes of the first object, the level, or items possessed by the first object, etc. may be changed according to the context information.

예를 들어, 사용자는 안경 또는 렌즈를 구매하고, 구매한 안경 또는 렌즈의 QR 코드를 유저 디바이스(100)에 인식시킬 수 있다. 유저 디바이스(100)는 획득한 안경 또는 렌즈의 QR 코드를 이용하여, 제 1 객체(15)의 능력치 중에서, 미사일을 발사할 수 있는 최대 거리를 증가시킬 수 있다. For example, the user can purchase the glasses or the lens, and can recognize the QR code of the purchased glasses or the lens on the user device 100. [ The user device 100 can increase the maximum distance at which the missile can be fired among the abilities of the first object 15 by using the acquired QR code of the glasses or the lens.

단계 S1050에서, 유저 디바이스(100)는 결정된 동작에 따라 제 1 객체(15)를 제어할 수 있다. 여기에서, 결정된 동작에는 결정된 동작의 타겟이 되는 대상에 대한 정보가 포함될 수 있다.In step S1050, the user device 100 can control the first object 15 according to the determined operation. Here, the determined operation may include information on the target that is the target of the determined operation.

한편, 단계 S1050은 도 2를 참조하여 전술한 단계 S240과 대응될 수 있다.On the other hand, step S1050 may correspond to step S240 described above with reference to FIG.

도 11은 일 실시예에 따른 유저 디바이스(100)의 사용자(1110)의 상태가 변경된 경우, 제 1 객체가 수행 가능한 동작이 변경되는 방법을 설명하기 위한 도면이다. 11 is a diagram for explaining a method in which an operation that can be performed by a first object is changed when a state of a user 1110 of the user device 100 according to an embodiment is changed.

도 11의 (a)를 참조하면, 유저 디바이스(100)의 사용자 인터페이스 상에는 제 1 객체(1120)와 제 1 객체(1120)의 상태 정보가 표시될 수 있다. 여기에서, 제 1 객체(1120)의 상태 정보(1130)는 게임 상에서 제 1 객체(1120)가 가지고 있는 능력치, 레벨 등을 포함할 수 있다. 예를 들어, 제 1 객체(1120)의 이동 속도(1130)에 관한 정보가 표시될 수 있다.Referring to FIG. 11A, state information of the first object 1120 and the first object 1120 may be displayed on the user interface of the user device 100. Here, the state information 1130 of the first object 1120 may include a capability value, a level, and the like that the first object 1120 has in the game. For example, information regarding the movement speed 1130 of the first object 1120 may be displayed.

도 11의 (b)를 참조하면, 유저 디바이스(100)는 사용자(1110)가 구매한 신발의 QR 컨텍스트 정보(1140)를 획득할 수 있다. 유저 디바이스(100)는 획득한 QR 컨텍스트 정보(1140)를 애플리케이션에 관한 메타데이터에 저장되어 있는 컨텍스트 정보들과 비교할 수 있다. 유저 디바이스(100)는 애플리케이션에 관한 메타데이터에 저장되어 있는 컨텍스트 정보들 중에서, 획득한 QR 컨텍스트 정보(1140)와 대응되는 컨텍스트 정보를 선택할 수 있다. 애플리케이션에 관한 메타데이터는 컨텍스트 정보 별로 변경 가능한 제 1 객체의 동작 및 특성 중 적어도 하나에 대한 정보를 포함할 수 있다. Referring to FIG. 11B, the user device 100 may acquire the QR context information 1140 of the shoes purchased by the user 1110. The user device 100 may compare the acquired QR context information 1140 with context information stored in the metadata related to the application. The user device 100 can select the context information corresponding to the acquired QR context information 1140 from the context information stored in the metadata related to the application. The metadata about the application may include information about at least one of the behavior and characteristics of the first object that can be changed for each context information.

유저 디바이스(100)에서 신발의 QR 컨텍스트 정보(1140)와 대응되는 제 1 객체의 특성은 제 1 객체의 이동 속도(1150)일 수 있다. 유저 디바이스(100)는 획득한 QR 컨텍스트 정보에 따라 제 1 객체의 이동 속도(1150)를 증가시킬 수 있다. The characteristic of the first object corresponding to the QR context information 1140 of the shoe in the user device 100 may be the moving speed 1150 of the first object. The user device 100 may increase the movement speed 1150 of the first object according to the acquired QR context information.

도 12는 본 발명의 일 실시예에 따른 유저 디바이스(100)의 구성을 설명하기 위한 블록 구성도이다.12 is a block diagram illustrating a configuration of a user device 100 according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 위치 정보 획득부(110), 통신부(120), 디스플레이부(130), 사용자 입력부(140), 상태 정보 획득부(150) 및 제어부(160)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 유저 디바이스(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 유저 디바이스(100)는 구현될 수 있다. 다른 일 실시예에 따른 디바이스(100)는 도 13을 참조하여 보다 구체적으로 후술하도록 한다.12, the device 100 according to an exemplary embodiment of the present invention includes a location information obtaining unit 110, a communication unit 120, a display unit 130, a user input unit 140, Unit 150, and a control unit 160. [0033] However, not all illustrated components are required. The user device 100 may be implemented by more components than the illustrated components, and the user device 100 may be implemented by fewer components. The device 100 according to another embodiment will be described later in more detail with reference to FIG.

위치 정보 획득부(110)는, GPS(Global Positioning System) 센서(미도시) 및 지자기 센서(미도시) 중 하나 이상을 이용하여 유저 디바이스(100)의 제 1 위치 정보를 획득한다. 위치 정보 획득부(110)는 유저 디바이스(100)가 이동하는 경우, 이동 속도 정보 및 이동 시간 정보 등을 획득하여, 변경되는 디바이스(100)의 위치 정보를 결정할 수 있다. The positional information obtaining unit 110 obtains the first positional information of the user device 100 using at least one of a Global Positioning System (GPS) sensor (not shown) and a geomagnetic sensor (not shown). When the user device 100 moves, the location information obtaining unit 110 may obtain the moving speed information and the moving time information to determine the location information of the device 100 to be changed.

통신부(120)는, 유저 디바이스(100)에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득한다. 통신부(120)는 적어도 하나의 다른 디바이스(20, 30, 40)와 직접 통신을 수행하여 제 2 위치 정보를 획득할 수 있다. 다른 예에 따라, 통신부(120)는 게임 애플리케이션의 서버와 통신하여, 게임 애플리케이션의 서버로부터 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득할 수 있다. The communication unit 120 acquires second positional information of at least one other device (20, 30, 40) connected to the server of the game application executed in the user device (100). The communication unit 120 may directly communicate with at least one other device 20, 30, 40 to obtain the second location information. According to another example, the communication unit 120 may communicate with the server of the game application to obtain the second location information of the at least one other device 20, 30, 40 from the server of the game application.

또한, 통신부(120)는 유저 디바이스(100)의 사용자의 상태가 변경됨을 나타내는 컨텍스트 정보를 획득할 수 있다.  In addition, the communication unit 120 can acquire context information indicating that the status of the user of the user device 100 is changed.

한편, 통신부(120)는 제 1 객체에 결정된 동작을 수행한 결과가 나타난 이미지를 게임 애플리케이션의 서버로부터 수신할 수 있다. 또한, 통신부(120)는 게임 애플리케이션의 업데이트 정보를 게임 애플리케이션의 서버로부터 수신할 수 있다.Meanwhile, the communication unit 120 may receive an image showing the result of performing the determined operation on the first object from the server of the game application. Further, the communication unit 120 can receive the update information of the game application from the server of the game application.

디스플레이부(130)는 유저 디바이스(100)에서 처리되는 정보를 출력한다. 예를 들어, 디스플레이부(130)는, 게임 애플리케이션 실행 시 제공되는 사용자 인터페이스를 출력할 수 있다. 디스플레이부(130)는 위치 정보 획득부(110)에서 획득한 제 1 위치 정보 및 통신부(120)에서 획득한 제 2 위치 정보에 따라, 사용자 인터페이스 상의 대응되는 위치에 제 1 객체(15) 및 적어도 하나의 제 2 객체(25, 35, 45)를 출력할 수 있다. 또한, 디스플레이부(130)는 생성된 컨텐트 요약 정보를 출력할 수 있다. The display unit 130 outputs information processed by the user device 100. [ For example, the display unit 130 may output a user interface provided when a game application is executed. The display unit 130 displays a first object 15 and a second object at a corresponding position on the user interface according to the first position information acquired by the position information acquisition unit 110 and the second position information acquired by the communication unit 120 It is possible to output one second object (25, 35, 45). Also, the display unit 130 may output the generated content summary information.

디스플레이부(130)는 적어도 하나의 제 2 객체(25, 35, 45) 중에서 사용자에 의해 선택된 제 2 객체(예를 들어, 35)를 사용자 인터페이스 상에 표시할 수 있다. 또한, 디스플레이부(130)는 제 1 객체(15)의 위치로부터 기 설정된 범위 이내에 위치하는 제 2 객체(예를 들어, 25)를 사용자 인터페이스 상에 표시할 수 있다. 다른 예에 따라, 디스플레이부(130)는 선택된 제 2 객체 및 제 1 객체에 따라 변경된 사용자 인터페이스를 표시할 수 있다. The display unit 130 may display a second object (e.g., 35) selected by the user among the at least one second object 25, 35, 45 on the user interface. Also, the display unit 130 may display a second object (for example, 25) located on the user interface within a predetermined range from the position of the first object 15. According to another example, the display unit 130 may display a changed user interface according to the selected second object and the first object.

사용자 입력부(140)는, 사용자 입력을 획득할 수 있다. 예를 들어, 사용자 입력부(140)는, 제 1 객체(15)의 동작을 제어하기 위한 사용자 입력을 획득할 수 있다. 또한, 사용자 입력부(140)는 복수의 제 2 객체들(25, 35, 45) 중에서 적어도 하나를 선택하는 사용자 입력을 획득할 수 있다. The user input unit 140 may obtain a user input. For example, the user input 140 may obtain a user input for controlling the operation of the first object 15. Also, the user input unit 140 may obtain a user input for selecting at least one of the plurality of second objects 25, 35, and 45.

상태 정보 획득부(150)는 유저 디바이스(100)의 상태 정보를 획득할 수 있다. 상태 정보 획득부(150)에는 자이로스코프 센서가 포함될 수 있다. 상태 정보 획득부(150)는 자이로스코프 센서에서 감지되는 유저 디바이스(100)의 기울기, 유저 디바이스(100)가 위치한 방향 및 유저 디바이스(100)의 움직임 중 적어도 하나에 대한 정보를 획득할 수 있다. 한편, 다른 실시예에 따라 상태 정보 획득부(150)는 위치 정보 획득부(110)에 포함된 GPS 센서 및 지자기 센서 중 하나 이상으로부터 감지된 정보를 이용하여 유저 디바이스(100)의 상태 정보를 획득할 수도 있다. 또 다른 실시예에 따라 상태 정보 획득부(150)에는 유저 디바이스(100)의 상태 정보를 획득하기 위해, GPS 센서 및 지자기 센서 중 하나 이상이 구비될 수 있다. The status information acquisition unit 150 can acquire status information of the user device 100. [ The state information acquisition unit 150 may include a gyroscope sensor. The state information obtaining unit 150 may obtain information on at least one of the inclination of the user device 100 sensed by the gyroscope sensor, the direction in which the user device 100 is positioned, and the motion of the user device 100. According to another embodiment, the state information obtaining unit 150 obtains the state information of the user device 100 using the information detected from at least one of the GPS sensor and the geomagnetic sensor included in the position information obtaining unit 110 You may. According to another embodiment, the status information obtaining unit 150 may be provided with at least one of a GPS sensor and a geomagnetic sensor to obtain status information of the user device 100. [

제어부(160)는, 통상적으로 유저 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(160)는, 위치 정보 획득부(110), 통신부(120), 디스플레이부(130), 사용자 입력부(140) 및 상태 정보 획득부(150) 등을 전반적으로 제어할 수 있다. The control unit 160 typically controls the overall operation of the user device 100. For example, the control unit 160 may control the position information obtaining unit 110, the communication unit 120, the display unit 130, the user input unit 140, and the status information obtaining unit 150 in general .

제어부(160)는 획득한 사용자 입력 및 유저 디바이스(100)의 상태 정보를 이용하여, 게임 애플리케이션 실행 시, 제 1 객체(15)가 수행 가능한 동작들 중 어느 하나를 결정할 수 있다. 제어부(160)는 결정된 동작에 따라 제 1 객체(15)를 제어할 수 있다. The control unit 160 can determine any one of the operations that the first object 15 can perform at the time of executing the game application, using the acquired user input and the state information of the user device 100. [ The control unit 160 may control the first object 15 according to the determined operation.

또한, 제어부(160)는 획득된 컨텍스트 정보에 따라 제 1 객체(15)가 수행 가능한 동작들을 변경할 수 있다. 다른 예에 따라, 제어부(160)는 제 1 객체(15)와 제 2 객체(예를 들어, 25)의 위치 정보의 차이에 따라 제 1 객체(15)가 수행 가능한 동작들을 변경할 수 있다. 제어부(160)는 변경된 동작들 중에서, 사용자 입력 및 유저 디바이스(100)의 상태 정보를 이용하여, 어느 하나의 동작을 결정할 수 있다. In addition, the control unit 160 may change the operations that the first object 15 can perform according to the obtained context information. According to another example, the controller 160 may change the operations that the first object 15 can perform according to the difference in the positional information of the first object 15 and the second object (e.g., 25). The controller 160 can determine any one of the changed operations using the user input and the status information of the user device 100. [

제어부(160)는 미리 저장된 게임 애플리케이션에 관한 메타데이터를 이용하여, 사용자 입력 및 유저 디바이스(100)의 상태 정보에 대응되는 동작을 결정할 수 있다. 제어부(160)는 적어도 하나의 제 2 객체(25, 35, 45) 중에서, 사용자의 선택 입력에 대응되는 제 2 객체(예를 들어, 35)를 선택하여, 제 1 객체(15)와 선택된 제 2 객체(예를 들어, 35)의 위치 정보에 따라 표시되는 사용자 인터페이스를 변경할 수 있다.The control unit 160 can determine the user input and the operation corresponding to the state information of the user device 100 using the metadata about the previously stored game application. The control unit 160 selects a second object (for example, 35) corresponding to the user's selection input from among the at least one second object 25, 2) object (for example, 35).

제어부(160)는 적어도 하나의 제 2 객체(25, 35, 45) 중에서, 제 1 객체(15)의 레벨로부터 기 설정된 범위 이내의 레벨을 갖는 제 2 객체를 선택할 수 있다. 다른 예에 따라, 제어부(160)는 적어도 하나의 제 2 객체(25, 25, 45) 중에서, 제 1 객체(15)의 위치로부터 기 설정된 거리 범위 이내에 위치하는 제 2 객체를 선택할 수 있다. 또 다른 예에 따라, 제어부(160)는 유저 디바이스(100)에서 미리 설정한 식별키를 입력한 다른 디바이스의 제 2 객체를 선택할 수도 있다. The control unit 160 may select a second object having a level within a predetermined range from the level of the first object 15 among the at least one second object 25, According to another example, the control unit 160 may select a second object located within a predetermined distance range from the position of the first object 15 among at least one second object 25, 25, 45. According to another example, the control unit 160 may select a second object of another device that has input an identification key preset in the user device 100. [

도 13은 본 발명의 다른 실시예에 따른 유저 디바이스(200)의 구성을 설명하기 위한 블록 구성도이다.13 is a block diagram illustrating a configuration of a user device 200 according to another embodiment of the present invention.

도 13에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(200)는, 센싱부(210), 통신부(220), 출력부(230), 사용자 입력부(240), 제어부(250), A/V(Audio/Video) 입력부(260) 및 메모리(270)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 13, a device 200 according to an exemplary embodiment of the present invention includes a sensing unit 210, a communication unit 220, an output unit 230, a user input unit 240, a controller 250, An A / V (Audio / Video) input unit 260 and a memory 270. [ However, not all illustrated components are required.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

센싱부(210)는, 지자기 센서(Magnetic sensor)(211), 가속도 센서(Acceleration sensor)(212), 온/습도 센서(213), 적외선 센서(214), 자이로스코프 센서(215), 위치 센서(예컨대, GPS)(216), 기압 센서(217), 근접 센서(218), 및 RGB 센서(illuminance sensor)(219) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 210 includes a magnetism sensor 211, an acceleration sensor 212, an on / humidity sensor 213, an infrared sensor 214, a gyroscope sensor 215, (GPS) 216, an air pressure sensor 217, a proximity sensor 218, and an RGB sensor (illuminance sensor) 219. However, the present invention is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

센싱부(210)는 유저 디바이스(200)의 상태 정보를 획득할 수 있다. 센싱부(210)는 지자기 센서(211) 및 위치 센서(216) 중 적어도 하나로부터 감지되는 정보를 이용하여, 유저 디바이스(200)의 위치 정보를 획득할 수 있다. The sensing unit 210 may acquire status information of the user device 200. [ The sensing unit 210 may acquire position information of the user device 200 using information sensed by at least one of the geomagnetic sensor 211 and the position sensor 216. [

또한, 센싱부(210)는 유저 디바이스(200)의 상태 정보를 획득할 수 있다. 예를 들어, 센싱부(210)는 자이로스코프 센서(215)로부터 유저 디바이스(200)의 기울기, 유저 디바이스(200)가 위치한 방향 및 유저 디바이스(200)의 움직임 중 적어도 하나에 대한 정보를 획득할 수 있다.Also, the sensing unit 210 may acquire status information of the user device 200. [ For example, the sensing unit 210 acquires information about at least one of a tilt of the user device 200, a direction in which the user device 200 is positioned, and a movement of the user device 200 from the gyroscope sensor 215 .

또한, 센싱부(210)는 획득된 사용자 입력의 시간 길이 및 사용자 입력의 유형 중 적어도 하나에 대한 정보를 획득할 수 있다. In addition, the sensing unit 210 may acquire information on at least one of a time length of the obtained user input and a type of the user input.

통신부(220)는 유저 디바이스(200)와 적어도 하나의 다른 디바이스(20, 30, 40) 또는 유저 디바이스(200)와 게임 애플리케이션의 서버(미도시) 간의 통신을 가능하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(220)는, 근거리 통신부(221), 이동 통신부(222), 방송 수신부(223)를 포함할 수 있다. The communication unit 220 includes one or more components that enable communication between the user device 200 and at least one other device 20,30,40 or between the user device 200 and the server of the game application can do. For example, the communication unit 220 may include a short-range communication unit 221, a mobile communication unit 222, and a broadcast reception unit 223.

근거리 통신부(short-range wireless communication unit)(221)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit 221 includes a Bluetooth communication unit, a Bluetooth low energy (BLE) communication unit, a near field communication unit, a WLAN communication unit, a Zigbee communication unit, IrDA, an infrared data association) communication unit, a WFD (Wi-Fi Direct) communication unit, an UWB (ultra wideband) communication unit, an Ant + communication unit, and the like.

이동 통신부(222)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 222 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

방송 수신부(223)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 유저 디바이스(200)가 방송 수신부(223)를 포함하지 않을 수도 있다.The broadcast receiving unit 223 receives broadcast signals and / or broadcast-related information from outside via a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The user device 200 may not include the broadcast receiver 223 according to the embodiment.

통신부(220)는, 유저 디바이스(200)에서 실행되는 게임 애플리케이션의 서버에 접속된 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득한다. 통신부(220)는 적어도 하나의 다른 디바이스(20, 30, 40)와 직접 통신을 수행하여 제 2 위치 정보를 획득할 수 있다. 다른 예에 따라, 통신부(220)는 게임 애플리케이션의 서버와 통신하여, 게임 애플리케이션의 서버로부터 적어도 하나의 다른 디바이스(20, 30, 40)의 제 2 위치 정보를 획득할 수 있다. The communication unit 220 acquires second position information of at least one other device 20, 30, 40 connected to the server of the game application executed in the user device 200. The communication unit 220 may directly communicate with at least one other device 20, 30, 40 to obtain the second location information. According to another example, the communication unit 220 can communicate with the server of the game application to obtain the second location information of the at least one other device 20, 30, 40 from the server of the game application.

한편, 통신부(220)는 도 12를 참조하여, 전술한 통신부(120)와 대응될 수 있다.On the other hand, the communication unit 220 can correspond to the communication unit 120 described above with reference to FIG.

출력부(230)에는, 디스플레이부(231)와 음향 출력부(232), 진동 모터(233) 등이 포함될 수 있다. The output unit 230 may include a display unit 231, an acoustic output unit 232, a vibration motor 233, and the like.

디스플레이부(231)는 유저 디바이스(200)에서 처리되는 정보를 출력한다. 한편, 디스플레이부(231)는 도 12를 참조하여, 전술한 디스플레이부(120)와 대응될 수 있다. 한편, 디스플레이부(231)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(231)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(231)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(100)의 구현 형태에 따라 유저 디바이스(200)는 디스플레이부(231)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(231)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다. The display unit 231 outputs information processed by the user device 200. [ The display unit 231 may correspond to the display unit 120 described above with reference to FIG. Meanwhile, when the display unit 231 and the touch pad have a layer structure and are configured as a touch screen, the display unit 231 can be used as an input device in addition to the output device. The display unit 231 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display A 3D display, and an electrophoretic display. The user device 200 may include two or more display units 231 according to the implementation of the device 100. At this time, the two or more display units 231 may be arranged to face each other using a hinge.

음향 출력부(232)는 통신부(220)로부터 수신되거나 메모리(270)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(232)는 유저 디바이스(200)에서 수행되는 기능(예를 들어, 게임 애플리케이션 실행시 출력되는 배경음, 게임 애플리케이션에서 동작을 수행할 때마다 발생되는 효과음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(232)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit 232 outputs audio data received from the communication unit 220 or stored in the memory 270. [ The sound output unit 232 outputs an acoustic signal related to a function performed in the user device 200 (for example, a background sound output when a game application is executed, and an effect sound generated each time an operation is performed in a game application) do. The sound output unit 232 may include a speaker, a buzzer, and the like.

진동 모터(233)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(233)는 오디오 데이터 또는 이미지 데이터(예컨대, 게임 애플리케이션에서 동작을 수행할 때마다 발생되는 효과음, 게임 애플리케이션에서 동작을 수행한 결과 변경되는 이미지)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(233)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 233 can output a vibration signal. For example, the vibration motor 233 generates vibration signals corresponding to outputs of audio data or image data (for example, an effect sound generated each time an action is performed in a game application, an image changed as a result of performing an action in a game application) Can be output. In addition, the vibration motor 233 may output a vibration signal when a touch is input to the touch screen.

사용자 입력부(240)는, 사용자가 유저 디바이스(200)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(240)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 240 means a means for the user to input data for controlling the user device 200. [ For example, the user input unit 240 may include a key pad, a dome switch, a touch pad (a contact type capacitance type, a pressure type resistive type, an infrared ray detection type, a surface ultrasonic wave conduction type, A tension measuring method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

사용자 입력부(240)는, 사용자 입력을 획득할 수 있다. 예를 들어, 사용자 입력부(240)는, 제 1 객체(15)의 동작을 제어하기 위한 사용자 입력을 획득할 수 있다. 또한, 사용자 입력부(240)는 복수의 제 2 객체들(25, 35, 45) 중에서 적어도 하나를 선택하는 사용자 입력을 획득할 수 있다. The user input unit 240 can obtain a user input. For example, the user input unit 240 may obtain a user input for controlling the operation of the first object 15. Also, the user input unit 240 may obtain a user input for selecting at least one of the plurality of second objects 25, 35, and 45.

제어부(250)는, 통상적으로 유저 디바이스(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(250)는, 메모리(270)에 저장된 프로그램들을 실행함으로써, 센싱부(210), 통신부(220), 출력부(230), 사용자 입력부(240), A/V 입력부(260), 메모리(270) 등을 전반적으로 제어할 수 있다. The control unit 250 typically controls the overall operation of the user device 200. For example, the control unit 250 may include a sensing unit 210, a communication unit 220, an output unit 230, a user input unit 240, an A / V input unit 260 ), The memory 270, and the like.

제어부(250)는 획득한 사용자 입력 및 유저 디바이스(200)의 상태 정보를 이용하여, 게임 애플리케이션 실행 시, 제 1 객체(15)가 수행 가능한 동작들 중 어느 하나를 결정할 수 있다. 제어부(250)는 결정된 동작에 따라 제 1 객체(15)를 제어할 수 있다. The control unit 250 can determine any one of the operations that the first object 15 can perform at the time of executing the game application, using the obtained user input and the state information of the user device 200. [ The control unit 250 may control the first object 15 according to the determined operation.

한편, 제어부(250)는 도 12를 참조하여 전술한 제어부(160)와 대응될 수 있다.Meanwhile, the control unit 250 may correspond to the control unit 160 described above with reference to FIG.

A/V(Audio/Video) 입력부(260)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(261)와 마이크로폰(262) 등이 포함될 수 있다. 카메라(261)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(250) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A / V (Audio / Video) input unit 260 is for inputting an audio signal or a video signal, and may include a camera 261 and a microphone 262. The camera 261 can obtain an image frame such as a still image or a moving image through the image sensor in the video communication mode or the photographing mode. The image captured through the image sensor can be processed through the control unit 250 or a separate image processing unit (not shown).

카메라(261)에서 처리된 화상 프레임은 메모리(270)에 저장되거나 통신부(220)를 통하여 외부로 전송될 수 있다. 카메라(261)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 261 may be stored in the memory 270 or transmitted to the outside through the communication unit 220. [ The camera 261 may be equipped with two or more cameras according to the configuration of the terminal.

마이크로폰(262)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(262)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(262)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 262 receives an external acoustic signal and processes it as electrical voice data. For example, the microphone 262 may receive acoustic signals from an external device or speaker. The microphone 262 may use various noise reduction algorithms to remove noise generated in receiving an external sound signal.

메모리(270)는, 제어부(250)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 복수의 메뉴, 복수의 메뉴 각각에 대응하는 복수의 제 1 계층 서브 메뉴, 복수의 제 1 계층 서브 메뉴 각각에 대응하는 복수의 제 2 계층 서브 메뉴 등)을 저장할 수도 있다. The memory 270 may store a program for processing and control of the controller 250 and may store data to be input / output (e.g., a plurality of menus, a plurality of first hierarchical submenus corresponding to the plurality of menus, A plurality of second layer submenus corresponding to each of the plurality of first layer submenus, and the like).

메모리(270)는 게임 애플리케이션에 관한 메타데이터를 미리 저장할 수 있다. 또한, 메모리(270)는 획득한 사용자 입력의 길이 및 유형에 관한 정보를 저장할 수 있다. 메모리(270)는 유저 디바이스(200)의 상태 정보가 저장될 수도 있다. The memory 270 may store metadata relating to the game application in advance. The memory 270 may also store information about the length and type of user input obtained. The memory 270 may store status information of the user device 200. [

메모리(270)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 유저 디바이스(200)는 인터넷(internet)상에서 메모리(270)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory 270 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , An optical disc, and the like. Also, the user device 200 may operate a web storage or a cloud server that performs a storage function of the memory 270 on the Internet.

메모리(270)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(271), 터치 스크린 모듈(272), 알림 모듈(273) 등으로 분류될 수 있다. Programs stored in the memory 270 may be classified into a plurality of modules according to their functions, for example, a UI module 271, a touch screen module 272, a notification module 273, .

UI 모듈(271)은, 게임 애플리케이션 별로 유저 디바이스(200)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(272)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(250)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(272)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(272)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 271 can provide a specialized UI, a GUI, and the like, which are interlocked with the user device 200 for each game application. The touch screen module 272 senses a touch gesture on the user's touch screen and can transmit information on the touch gesture to the control unit 250. [ The touch screen module 272 according to an embodiment of the present invention can recognize and analyze the touch code. The touch screen module 272 may be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided in or near the touch screen to sense the touch or near touch of the touch screen. An example of a sensor for sensing the touch of the touch screen is a tactile sensor. A tactile sensor is a sensor that detects the contact of a specific object with a degree or more that a person feels. The tactile sensor can detect various information such as the roughness of the contact surface, the rigidity of the contact object, and the temperature of the contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, a proximity sensor is an example of a sensor for sensing the touch of the touch screen.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. The user's touch gestures can include tap, touch & hold, double tap, drag, panning, flick, drag and drop, swipe, and the like.

알림 모듈(273)은 유저 디바이스(200)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 유저 디바이스(200)에서 발생되는 이벤트의 예로는 키 신호 입력, 다른 디바이스(예를 들어, 25)의 게임 탈퇴, 게임의 승패 결정 및 게임 종료 등이 있다. 알림 모듈(273)은 디스플레이부(231)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(232)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(233)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module 273 may generate a signal for notifying the occurrence of an event of the user device 200. Examples of events that occur in the user device 200 include a key signal input, a game withdrawal from another device (e.g., 25), a game win / loss decision, and a game end. The notification module 273 may output a notification signal in the form of a video signal through the display unit 231 or may output a notification signal in the form of an audio signal through the sound output unit 232, It is possible to output a notification signal in the form of a vibration signal.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다. The embodiments of the present invention described above can be embodied in the form of a computer program that can be executed on various components on a computer, and the computer program can be recorded on a computer-readable medium. At this time, the medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, , A RAM, a flash memory, and the like, which are specifically configured to store and execute program instructions. Further, the medium may include an intangible medium that is implemented in a form that can be transmitted over a network, and may be, for example, a medium in the form of software or an application that can be transmitted and distributed through a network.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention or may be known and used by those skilled in the computer software field. Examples of computer programs may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .

100: 디바이스
110: 위치 정보 획득부
120: 통신부
130: 디스플레이부
140: 사용자 입력부
150: 상태 정보 획득부
160: 제어부
100: device
110: Position information obtaining unit
120:
130:
140: user input section
150: Status information obtaining unit
160:

Claims (20)

위치 정보 획득부에 포함된 GPS(Global Positioning System) 센서 및 지자기 센서 중 하나 이상을 이용하여 유저 디바이스의 제 1 위치 정보를 획득하는 단계;
통신부를 통하여 적어도 하나의 다른 디바이스의 제 2 위치 정보를 획득하는 단계;
상기 제 1 위치 정보를 기초로 결정된 상기 유저 디바이스의 위치와 상기 제 2 위치 정보를 기초로 결정된 적어도 하나의 다른 디바이스의 위치 차이에 기초하여, 게임 애플리케이션의 사용자 인터페이스를 생성하는 단계;
디스플레이부에 출력되는 상기 사용자 인터페이스에서 상기 제 1 위치 정보와 상기 제 2 위치 정보 간의 차이에 기초하여 결정된 위치에, 상기 유저 디바이스를 나타내는 제 1 객체 및 상기 적어도 하나의 다른 디바이스를 나타내는 적어도 하나의 제 2 객체를 표시하는 단계;
사용자 입력부에서 획득된 사용자 입력, 상태 정보 획득부에서 획득된 상기 유저 디바이스의 상태 정보 및 상기 통신부에서 획득된 사용자의 행동에 대한 컨텍스트 정보를 이용하여 제어부에서 상기 제 1 객체가 수행 가능한 동작들 중 어느 하나를 결정하는 단계; 및
상기 제어부에서 상기 결정된 동작에 따라 상기 제 1 객체를 제어하는 단계를 포함하고,
상기 사용자의 행동에 대한 컨텍스트 정보는, 상기 사용자가 상기 제 1 객체가 수행 가능한 동작의 범위를 결정하기 위한 기 설정된 행동을 수행함에 따라, 상기 통신부를 통해 수신되는 정보인 유저 디바이스가 게임 서비스를 제공하는 방법.
Acquiring first position information of a user device using at least one of a Global Positioning System (GPS) sensor and a geomagnetic sensor included in the position information obtaining unit;
Acquiring second position information of at least one other device through a communication unit;
Generating a user interface of the game application based on the position of the user device determined based on the first position information and the position difference of at least one other device determined based on the second position information;
A first object representing the user device and at least one second device representing the at least one other device at a location determined based on a difference between the first location information and the second location information in the user interface output to the display unit 2 displaying an object;
And a control unit configured to control the operation of the first object by using the user input obtained from the user input unit, the status information of the user device obtained by the status information obtaining unit, and the context information of the user's behavior acquired by the communication unit Determining one; And
And controlling the first object according to the determined operation in the control unit,
The context information on the behavior of the user may include information indicating that the user device, which is information received through the communication unit, provides the game service as the user performs the predetermined action for determining the range of operations that the first object can perform How to.
삭제delete 제 1항에 있어서, 상기 유저 디바이스의 상태 정보는,상기 GPS 센서, 상기 지자기 센서 및 상기 상태 정보 획득부에 포함된 자이로스코프 센서 중 하나 이상을 이용하여 감지되는 상기 유저 디바이스의 기울기, 상기 유저 디바이스가 위치한 방향 및 상기 유저 디바이스의 움직임 중 적어도 하나를 기초로 식별되고,상기 사용자 입력은,상기 사용자 입력이 획득된 시간의 길이 및 상기 사용자 입력의 유형 중 적어도 하나를 기초로 식별되는 것인 유저 디바이스가 게임 서비스를 제공하는 방법. The apparatus of claim 1, wherein the status information of the user device includes at least one of a tilt of the user device sensed using at least one of the GPS sensor, the geomagnetic sensor, and the gyroscope sensor included in the status information obtaining unit, Wherein the user input is identified based on at least one of a direction in which the user input is located and a movement of the user device, and wherein the user input is identified based on at least one of a length of time the user input was obtained and a type of the user input. How to provide game services. 제 1항에 있어서,
상기 통신부를 통하여, 상기 유저 디바이스의 사용자의 상태가 변경됨을 나타내는 컨텍스트 정보를 획득하는 단계; 및
상기 사용자의 상태가 변경됨을 나타내는 컨텍스트 정보에 따라 상기 제어부에서 상기 제 1 객체가 수행 가능한 동작들을 변경하는 단계를 더 포함하는 유저 디바이스가 게임 서비스를 제공하는 방법.
The method according to claim 1,
Acquiring context information indicating that the status of the user of the user device is changed via the communication unit; And
Further comprising changing the operations that can be performed by the first object in the controller according to context information indicating that the status of the user is changed.
제 1항에 있어서, 상기 제어부에서 상기 제 1 위치 정보와 상기 제 2 위치 정보의 차이에 따라, 상기 제 1 객체가 상기 제 2 객체에 대해 수행 가능한 동작들을 선택하는 단계를 더 포함하고, 상기 수행 가능한 동작들 중 어느 하나를 결정하는 단계는,상기 제어부에서 상기 선택된 동작들 중 어느 하나를 결정하는 유저 디바이스가 게임 서비스를 제공하는 방법.2. The method of claim 1, further comprising: in the control unit, selecting, based on a difference between the first position information and the second position information, operations that the first object can perform on the second object, Wherein determining any one of the possible operations provides a game service for a user device that determines any one of the selected actions in the control unit. 제 1항에 있어서, 상기 적어도 하나의 제 2 객체를 표시하는 단계는,
상기 디스플레이부에 상기 적어도 하나의 다른 디바이스 중에서, 상기 유저 디바이스가 설정한 식별키를 입력한 다른 디바이스의 제 2 객체를 표시하는 유저 디바이스가 게임 서비스를 제공하는 방법.
The method of claim 1, wherein displaying the at least one second object comprises:
And a user device displaying a second object of another device that has input the identification key set by the user device among the at least one other device on the display unit.
제 1항에 있어서, 상기 적어도 하나의 제 2 객체를 표시하는 단계는,상기 제어부에서 제 1 객체와 상기 적어도 하나의 제 2 객체 중 선택된 제 2 객체의 거리에 따라, 상기 사용자 인터페이스를 변경하는 단계; 및상기 디스플레이부에 출력되는 상기 변경된 사용자 인터페이스에 상기 선택된 제 2 객체를 표시하는 단계를 포함하는 유저 디바이스가 게임 서비스를 제공하는 방법.The method of claim 1, wherein the displaying the at least one second object further comprises: changing the user interface according to a distance between the first object and a second object selected from the at least one second object in the controller ; And displaying the selected second object on the changed user interface output to the display unit. 제 1항에 있어서, 상기 적어도 하나의 제 2 객체를 표시하는 단계는,상기 디스플레이부에 기 설정된 거리 범위에 포함되는 제 2 위치 정보를 갖는 제 2 객체를 표시하는 유저 디바이스가 게임 서비스를 제공하는 방법. The method of claim 1, wherein displaying the at least one second object comprises: providing a game service to a user device displaying a second object having second location information included in a predetermined distance range on the display unit Way. 제 1항에 있어서, 상기 적어도 하나의 제 2 객체를 표시하는 단계는,상기 디스플레이부에 상기 적어도 하나의 제 2 객체 중에서, 상기 제 1 객체의 레벨로부터 기 설정된 범위 이내의 레벨을 갖는 제 2 객체를 표시하는 유저 디바이스가 게임 서비스를 제공하는 방법.The method of claim 1, wherein the displaying of the at least one second object further comprises: displaying a second object having a level within a predetermined range from the level of the first object among the at least one second object Wherein the user device displaying the game service provides the game service. GPS 센서 및 지자기 센서 중 하나 이상을 이용하여, 디바이스의 제 1 위치 정보를 획득하는 위치 정보 획득부;
적어도 하나의 다른 디바이스의 제 2 위치 정보를 획득하고, 사용자의 행동에 대한 컨텍스트 정보를 획득하는 통신부;
게임 애플리케이션의 사용자 인터페이스에서 상기 제 1 위치 정보와 상기 제 2 위치 정보 간의 차이에 기초하여 결정된 위치에, 상기 디바이스를 나타내는 제 1 객체 및 상기 적어도 하나의 다른 디바이스를 나타내는 적어도 하나의 제 2 객체를 표시하는 디스플레이부;
사용자 입력을 획득하는 사용자 입력부;
상기 디바이스의 상태 정보를 획득하는 상태 정보 획득부; 및
상기 제 1 위치 정보를 기초로 결정된 상기 유저 디바이스의 위치와 상기 제 2 위치 정보를 기초로 결정된 적어도 하나의 다른 디바이스의 위치 차이에 기초하여, 상기 사용자 인터페이스를 생성하고, 상기 사용자 입력, 상기 디바이스의 상태 정보 및 상기 컨텍스트 정보를 이용하여 상기 제 1 객체가 수행 가능한 동작들 중 어느 하나를 결정하고, 상기 결정된 동작에 따라 상기 제 1 객체를 제어하는 제어부를 포함하며,
상기 사용자의 행동에 대한 컨텍스트 정보는, 상기 사용자가 상기 제 1 객체가 수행 가능한 동작의 범위를 결정하기 위한 기 설정된 행동을 수행함에 따라, 상기 통신부를 통해 수신되는 정보인 게임 서비스를 제공하는 디바이스.
A position information obtaining unit that obtains first position information of the device using at least one of a GPS sensor and a geomagnetic sensor;
A communication unit for acquiring second positional information of at least one other device and acquiring context information about a behavior of the user;
A first object representing the device and at least one second object representing the at least one other device are displayed at a position determined based on a difference between the first position information and the second position information in a user interface of the game application ;
A user input unit for acquiring user input;
A status information obtaining unit for obtaining status information of the device; And
Generating the user interface based on the location of the user device determined based on the first location information and the location difference of at least one other device determined based on the second location information, And a controller for determining any one of the operations that the first object can perform using the status information and the context information and controlling the first object according to the determined operation,
Wherein the context information on the behavior of the user is information received through the communication unit as the user performs a predetermined action for determining the range of the action that the first object can perform.
삭제delete 제 10항에 있어서, 상기 상태 정보 획득부는,
자이로스코프 센서를 더 포함하고,
상기 디바이스의 상태 정보는,
상기 GPS 센서, 상기 지자기 센서 및 상기 자이로스코프 센서 중 하나 이상 이상을 이용하여 감지되는 상기 디바이스의 기울기, 상기 디바이스가 위치한 방향 및 상기 디바이스의 움직임 중 적어도 하나를 기초로 식별되는 것인 게임 서비스를 제공하는 디바이스.
The information processing apparatus according to claim 10,
Further comprising a gyroscope sensor,
The device status information includes:
Wherein at least one of the GPS sensor, the geomagnetic sensor and the gyroscope sensor is used to identify a game service based on at least one of a tilt of the device, a direction in which the device is located, and a movement of the device Device.
제 10항에 있어서, 상기 사용자 입력은,
상기 사용자 입력이 획득된 시간의 길이 및 상기 사용자 입력의 유형 중 적어도 하나를 기초로 식별되는 것인 게임 서비스를 제공하는 디바이스.
11. The method of claim 10,
Wherein the user input is identified based on at least one of a length of time obtained and a type of the user input.
제 10항에 있어서, 상기 통신부는,
상기 디바이스의 사용자의 상태가 변경됨을 나타내는 컨텍스트 정보를 획득하고,
상기 제어부는,
상기 사용자의 상태가 변경됨을 나타내는 컨텍스트 정보에 따라 상기 제 1 객체가 수행 가능한 동작들을 변경하는 게임 서비스를 제공하는 디바이스.
11. The communication device according to claim 10,
Obtains context information indicating that the status of the user of the device is changed,
Wherein,
And changes the actions that can be performed by the first object according to the context information indicating that the status of the user is changed.
제 10항에 있어서, 상기 제어부는,
상기 제 1 위치 정보와 상기 제 2 위치 정보의 차이에 따라, 상기 제 1 객체가 상기 제 2 객체에 대해 수행 가능한 동작들을 선택하고, 상기 선택된 동작들 중 어느 하나를 결정하는 게임 서비스를 제공하는 디바이스.
11. The apparatus according to claim 10,
A device for providing a game service for selecting one of the actions selected by the first object for the second object in accordance with the difference between the first positional information and the second positional information, .
제 10항에 있어서, 상기 디스플레이부는,
상기 적어도 하나의 다른 디바이스 중에서, 상기 디바이스가 설정한 식별키를 입력한 다른 디바이스의 제 2 객체를 표시하는 게임 서비스를 제공하는 디바이스.
The display device according to claim 10,
And a second object of another device that has input the identification key set by the device among the at least one other device.
제 10항에 있어서, 상기 제어부는,
상기 적어도 하나의 제 2 객체 중에서, 상기 사용자의 선택 입력에 대응되는 제 2 객체를 선택하며, 상기 제 1 객체와 상기 선택된 제 2 객체의 거리에 따라, 상기 사용자 인터페이스를 변경하고,
상기 디스플레이부는,
상기 변경된 사용자 인터페이스에 상기 선택된 제 2 객체를 표시하는 단계를 더 포함하는 게임 서비스를 제공하는 디바이스.
11. The apparatus according to claim 10,
Selecting a second object corresponding to the selection input of the user from among the at least one second object and changing the user interface according to the distance between the first object and the selected second object,
The display unit includes:
And displaying the selected second object in the changed user interface.
제 10항에 있어서, 상기 디스플레이부는,
기 설정된 거리 범위에 포함되는 제 2 위치 정보를 갖는 제 2 객체를 표시하는 게임 서비스를 제공하는 디바이스.
The display device according to claim 10,
And a second object having second location information included in a predetermined distance range.
제 10항에 있어서, 상기 디스플레이부는,
상기 적어도 하나의 제 2 객체 중에서, 상기 제 1 객체의 레벨로부터 기 설정된 범위 이내의 레벨을 갖는 제 2 객체를 표시하는 게임 서비스를 제공하는 디바이스.
The display device according to claim 10,
And a second object having a level within a predetermined range from the level of the first object among the at least one second object.
컴퓨터를 이용하여 제 1 항 및 제 3항 내지 제 9 항의 방법 중 어느 하나의 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램.A computer program stored on a recording medium for executing a method of any one of claims 1 and 3 to 9 using a computer.
KR1020140186731A 2014-12-23 2014-12-23 Method and device for providing game service KR101622361B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140186731A KR101622361B1 (en) 2014-12-23 2014-12-23 Method and device for providing game service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140186731A KR101622361B1 (en) 2014-12-23 2014-12-23 Method and device for providing game service

Publications (1)

Publication Number Publication Date
KR101622361B1 true KR101622361B1 (en) 2016-05-18

Family

ID=56113652

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140186731A KR101622361B1 (en) 2014-12-23 2014-12-23 Method and device for providing game service

Country Status (1)

Country Link
KR (1) KR101622361B1 (en)

Similar Documents

Publication Publication Date Title
US11153431B2 (en) Mobile terminal and method of operating the same
CN108710525B (en) Map display method, device, equipment and storage medium in virtual scene
US8619152B2 (en) Mobile terminal and operating method thereof
RU2579945C2 (en) Sharing deliberately sent information
EP2400733B1 (en) Mobile terminal for displaying augmented-reality information
US9377860B1 (en) Enabling gesture input for controlling a presentation of content
JP7026819B2 (en) Camera positioning method and equipment, terminals and computer programs
EP3180763B1 (en) Wearable device and method of transmitting content
US20110319131A1 (en) Mobile terminal capable of providing multiplayer game and operating method thereof
CN104603719A (en) Augmented reality surface displaying
KR20170004225A (en) Alarm device and method for informing location of objects thereof
EP3629198A1 (en) Method and device for searching for audio
CN108536295B (en) Object control method and device in virtual scene and computer equipment
CN112827166B (en) Card object-based interaction method and device, computer equipment and storage medium
EP3121688B1 (en) Method and device for displaying image
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
CN111031391A (en) Video dubbing method, device, server, terminal and storage medium
CN113613028B (en) Live broadcast data processing method, device, terminal, server and storage medium
WO2022237076A1 (en) Method and apparatus for controlling avatar, and device and computer-readable storage medium
EP3299930A1 (en) Virtual reality interaction
CN113891166A (en) Data processing method, data processing device, computer equipment and medium
KR101622361B1 (en) Method and device for providing game service
CN114356182B (en) Article positioning method, device, equipment and storage medium
CN111314205B (en) Instant messaging matching method, device, system, equipment and storage medium
CN112957732A (en) Searching method, searching device, terminal and storage medium

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 4