KR20150146377A - Method for controlling device and the device - Google Patents

Method for controlling device and the device Download PDF

Info

Publication number
KR20150146377A
KR20150146377A KR1020150013550A KR20150013550A KR20150146377A KR 20150146377 A KR20150146377 A KR 20150146377A KR 1020150013550 A KR1020150013550 A KR 1020150013550A KR 20150013550 A KR20150013550 A KR 20150013550A KR 20150146377 A KR20150146377 A KR 20150146377A
Authority
KR
South Korea
Prior art keywords
hovering input
input means
information
user interface
application
Prior art date
Application number
KR1020150013550A
Other languages
Korean (ko)
Other versions
KR102306535B1 (en
Inventor
주유성
김요한
류성욱
이재준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/744,440 priority Critical patent/US10719132B2/en
Publication of KR20150146377A publication Critical patent/KR20150146377A/en
Priority to US16/911,848 priority patent/US20200326786A1/en
Application granted granted Critical
Publication of KR102306535B1 publication Critical patent/KR102306535B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A method for controlling a device which obtains information related to a type of a hovering input unit transmitting hovering input to the device and displays a user interface corresponding to information related to a type of a hovering input means obtained among the user interfaces related to an application executed on the device.

Description

디바이스를 제어하는 방법 및 디바이스{METHOD FOR CONTROLLING DEVICE AND THE DEVICE}[0001] METHOD FOR CONTROLLING DEVICE AND THE DEVICE [0002]

본 발명은 디바이스를 제어하는 방법 및 그 디바이스에 관한 것이다. The present invention relates to a method and a device for controlling a device.

네트워크 및 멀티미디어 기술이 발전함에 따라, 디바이스의 사용자는 서비스 제공 서버로부터 다양한 서비스를 제공받을 수 있게 되었다. 또한, 네트워크 및 멀티미디어 기술의 발전과 함께 디바이스에 관한 연구가 활발히 이루어지면서, 디바이스들은 사용자에게 여러 가지 형태의 사용자 인터페이스를 제공할 수 있다. As networks and multimedia technologies evolve, users of devices can receive various services from service providing servers. In addition, with the development of networks and multimedia technologies, studies on devices have been actively conducted, and devices can provide various types of user interfaces to users.

디바이스가 제공 가능한 서비스와 사용자 인터페이스의 형태가 다양해 지면서, 사용자가 원하는 서비스를 제공받기 위해, 디바이스를 제어하는 경우, 입력할 수 있는 사용자 입력의 형태도 다양해졌다. 최근에는 디바이스에 포함되는 센서들이 다양해 지면서, 사용자가 이용 가능한 서비스에 보다 적합한 입력 형태를 제공할 수 있도록 다양한 종류의 입력 형태를 인식하여 디바이스를 제어할 수 있는 기술이 요구되고 있다. As the types of the service and the user interface that can be provided by the device are varied, the form of the user input that can be input when the device is controlled in order to receive the service desired by the user has also been diversified. 2. Description of the Related Art [0002] In recent years, there has been a demand for a technique of recognizing various types of input devices and controlling the devices so that the sensors included in the devices are diversified so as to provide a more suitable input form to services available to the user.

본 발명의 일 실시예는 디바이스에 정보를 전송하는 사용자 입력 수단에 따라 사용자 인터페이스를 제공함으로써, 사용자가 디바이스에서 제공 가능한 서비스를 보다 용이하게 이용할 수 있도록 디바이스를 제어하는 방법 및 디바이스를 제공할 수 있다.An embodiment of the present invention can provide a method and device for controlling a device so that a user can more easily utilize a service available in the device by providing a user interface according to user input means for transmitting information to the device .

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법은, 디바이스에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득하는 단계; 및 상기 디바이스에서 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들 중 상기 획득된 호버링 입력 수단의 유형에 관한 정보에 대응하는 사용자 인터페이스를 디스플레이 하는 단계를 포함한다.A method of controlling a device in accordance with one embodiment of the present invention includes: obtaining information about a type of hovering input means for sending a hovering input to a device; And displaying a user interface corresponding to information on the type of the obtained hovering input means among a plurality of user interfaces related to an application executed in the device.

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 디스플레이 하는 단계는, 호버링 입력 수단의 유형에 기초하여, 서로 다른 동작에 관한 정보를 식별할 수 있는 정도를 나타내는 정밀도(resolution)를 결정하는 단계; 및 결정된 정밀도에 따라, 어플리케이션에서 수행되는 적어도 하나의 동작에 관한 정보가 출력되는 사용자 인터페이스를 디스플레이 한다. In a method of controlling a device according to an embodiment of the present invention, the step of displaying may include determining, based on the type of hovering input means, a resolution indicating the degree to which information about different operations can be identified ; And a user interface for outputting information on at least one operation performed in the application according to the determined precision.

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 디스플레이 하는 단계는, 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보가 출력되는 위치가 결정된 정밀도에 대응되는 사용자 인터페이스를 디스플레이 하는 단계를 포함한다. In a method of controlling a device according to an embodiment of the present invention, the step of displaying includes displaying a user interface corresponding to an accuracy at which a position at which information on operations that can be performed when an application is executed is output .

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 디스플레이 하는 단계는, 결정된 정밀도가 임계값 이상인 경우, 적어도 하나의 동작에 관한 정보가 디바이스의 화면으로부터 호버링 입력 수단 간의 거리 차이에 따라 출력되는 사용자 인터페이스를 디스플레이 하는 단계를 포함한다.In a method of controlling a device according to an embodiment of the present invention, the step of displaying comprises the steps of: when the determined precision is equal to or greater than a threshold value, information about at least one operation is output from the screen of the device Lt; RTI ID = 0.0 > UI < / RTI >

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 디스플레이 하는 단계는, 호버링 입력 수단의 유형에 기초하여 어플리케이션 실행 시 선택된 동작의 수행 단위를 결정하는 단계; 및 복수의 사용자 인터페이스들 중에서 결정된 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 디스플레이 하는 단계를 포함한다. In a method of controlling a device according to an embodiment of the present invention, the step of displaying includes the steps of: determining a unit of performance of an operation selected at the time of execution of an application based on the type of hovering input means; And displaying a user interface in which information on an operation is displayed according to a unit of performance determined among a plurality of user interfaces.

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 복수의 사용자 인터페이스들은, 어플리케이션 실행 시 수행되는 동작들을, 동작들 각각을 수행하는데 필요한 호버링 입력 수단의 정밀도에 따라 분류하여 출력한 사용자 인터페이스를 포함한다. A method of controlling a device according to an exemplary embodiment of the present invention is a method for controlling a device in which a plurality of user interfaces are classified into a plurality of user interfaces by classifying operations performed at the time of application execution according to the precision of hovering input means required to perform each operation, .

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 디스플레이 하는 단계는, 어플리케이션 실행 시, 호버링 입력 수단의 유형에 대응되는 동작들에 관한 정보를 표시한 사용자 인터페이스를 우선적으로 디스플레이 하는 단계를 포함한다. In a method of controlling a device according to an embodiment of the present invention, the step of displaying includes a step of preferentially displaying a user interface displaying information on operations corresponding to the type of the hovering input means at the time of executing the application .

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 디스플레이 하는 단계는, 호버링 입력 수단으로부터 수신 가능한 호버링 입력들이 어플리케이션 실행 시 수행 가능한 동작들 각각에 대응되지 않는 경우, 복수의 동작들에 관한 정보를 그룹으로 분류하여 출력한 사용자 인터페이스를 디스플레이 하는 단계를 포함한다. In a method of controlling a device in accordance with an embodiment of the present invention, the step of displaying comprises: if the hovering inputs receivable from the hovering input means do not correspond to each of the operations that can be performed when the application is executed, And displaying the output user interface by classifying the information into groups.

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법에 있어서, 복수의 사용자 인터페이스들은, 동작들에 관한 정보를 기 설정된 기간 동안 동작이 실행된 횟수 및 동작들 간의 관련도 중 적어도 하나에 따라 그룹으로 분류하여 표시한 사용자 인터페이스를 포함한다.In a method of controlling a device according to an embodiment of the present invention, a plurality of user interfaces are arranged in a group in accordance with at least one of the number of times an operation has been performed and the degree of association between operations And includes a user interface classified and displayed.

본 발명의 일 실시예에 따라 디바이스를 제어하는 방법은, 호버링 입력 수단의 일측면과 다른 측면의 위치 정보를 획득하는 단계; 획득된 위치 정보를 이용하여, 디바이스에 대한 호버링 입력 수단의 기울기를 결정하는 단계; 및 결정된 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정하는 단계를 더 포함한다.A method of controlling a device according to an embodiment of the present invention includes: acquiring position information of one side and another side of a hovering input means; Determining a slope of the hovering input means for the device, using the obtained location information; And determining an action to be performed when the application is executed according to the determined slope.

본 발명의 일 실시예에 따른 디바이스는 디바이스에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득하는 센싱부; 디바이스에서 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들 중 상기 획득된 호버링 입력 수단의 유형에 대응되는 사용자 인터페이스가 출력되도록 제어하는 제어부; 및 대응되는 사용자 인터페이스를 디스플레이 하는 디스플레이부를 포함한다. A device according to an embodiment of the present invention includes: a sensing unit for acquiring information about a type of hovering input means for transmitting a hovering input to a device; A control unit for controlling the output of a user interface corresponding to the type of the obtained hovering input means among a plurality of user interfaces related to an application executed in the device; And a display unit for displaying a corresponding user interface.

본 발명의 일 실시예에 따른 디바이스에 있어서, 제어부는, 호버링 입력 수단의 유형에 기초하여, 서로 다른 동작에 관한 정보를 식별할 수 있는 정도를 나타내는 정밀도(resolution)를 결정하고, 결정된 정밀도에 따라, 어플리케이션에서 수행되는 적어도 하나의 동작에 관한 정보가 출력된다. In the device according to the embodiment of the present invention, the control unit may determine, based on the type of the hovering input means, a resolution indicating the degree to which information on different operations can be identified, , Information on at least one operation performed in the application is output.

본 발명의 일 실시예에 따른 디바이스에 있어서, 제어부는, 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보가 출력되는 위치가 결정된 정밀도에 대응되는 사용자 인터페이스를 선택한다.In the device according to the embodiment of the present invention, the control unit selects a user interface corresponding to the determined accuracy of the position at which the information on the operations that can be performed when the application is executed is determined.

본 발명의 일 실시예에 따른 디바이스에 있어서, 제어부는, 결정된 정밀도가 임계값 이상인 경우, 적어도 하나의 동작에 관한 정보가 디바이스의 화면으로부터 호버링 입력 수단 간의 거리 차이에 따라 출력되는 사용자 인터페이스를 선택한다.In the device according to the embodiment of the present invention, when the determined precision is equal to or greater than the threshold value, the control unit selects a user interface from which information on at least one operation is output in accordance with the difference in distance between the hovering input means and the screen of the device .

본 발명의 일 실시예에 따른 디바이스에 있어서, 제어부는, 호버링 입력 수단의 유형에 기초하여 어플리케이션 실행 시 선택된 동작의 수행 단위를 결정하고, 복수의 사용자 인터페이스들 중에서 결정된 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 선택한다.In the device according to the embodiment of the present invention, the control unit may determine the execution unit of the selected operation at the execution of the application based on the type of the hovering input means, Select the user interface to be displayed.

본 발명의 일 실시예에 따른 디바이스에 있어서, 복수의 사용자 인터페이스들은, 어플리케이션 실행 시 수행되는 동작들을, 동작들 각각을 수행하는데 필요한 호버링 입력 수단의 정밀도에 따라 분류하여 출력한다.In the device according to the embodiment of the present invention, the plurality of user interfaces classify the operations performed at the time of application execution according to the precision of the hovering input means necessary to perform each of the operations.

본 발명의 일 실시예에 따른 디바이스에 있어서, 제어부는, 어플리케이션 실행 시, 호버링 입력 수단의 유형에 대응되는 동작들에 관한 정보를 표시한 사용자 인터페이스를 우선적으로 선택한다. In the device according to the embodiment of the present invention, when executing the application, the control section preferentially selects the user interface displaying the information on the operations corresponding to the type of hovering input means.

본 발명의 일 실시예에 따른 디바이스에 있어서, 제어부는, 호버링 입력 수단으로부터 수신 가능한 호버링 입력들이 어플리케이션 실행 시 수행 가능한 동작들 각각에 대응되지 않는 경우, 복수의 동작들에 관한 정보를 그룹으로 분류하여 출력한 사용자 인터페이스를 선택한다. In the device according to the embodiment of the present invention, when the hovering inputs receivable from the hovering input means do not correspond to each of the operations that can be performed when the application is executed, the control unit classifies the information on the plurality of operations into groups Select the output user interface.

본 발명의 일 실시예에 따른 디바이스에 있어서, 복수의 사용자 인터페이스들은, 동작들에 관한 정보를 기 설정된 기간 동안 동작이 실행된 횟수 및 상기 동작들 간의 관련도 중 적어도 하나에 따라 그룹으로 분류하여 표시한 사용자 인터페이스를 포함한다.In a device according to an embodiment of the present invention, a plurality of user interfaces may be classified into a group according to at least one of the number of times the operation has been performed for a predetermined period and the relation between the operations, Includes one user interface.

본 발명의 일 실시예에 따른 디바이스에 있어서, 센싱부는, 호버링 입력 수단의 일측면과 다른 측면의 위치 정보를 획득하고, 제어부는, 획득된 위치 정보를 이용하여, 디바이스에 대한 호버링 입력 수단의 기울기를 결정하고, 결정된 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정한다.In the device according to the embodiment of the present invention, the sensing unit acquires positional information of one side and the other side of the hovering input means, and the control unit uses the obtained positional information to determine the inclination of the hovering input means And determines an operation to be performed when the application is executed according to the determined slope.

도 1은 본 발명의 일 실시예에 따른 디바이스를 제어하는 방법을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따라 디바이스를 제어하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 디바이스의 입력 정밀도에 따라 사용자 인터페이스를 선택하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 복수의 사용자 인터페이스들을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 디바이스가 호버링 입력 수단(510, 520)의 유형에 따라 사용자 인터페이스 상에 표시되는 동작에 관한 정보를 변경하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따라 디바이스가 호버링 입력 수단의 유형에 기초하여 결정된 동작의 수행 단위에 따라 동작에 관한 정보가 표시된 사용자 인터페이스를 디스플레이 하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따라, 동영상 재생 어플리케이션 실행 시 호버링 입력 수단의 유형을 기초로 선택된 동작의 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 설명하기 위한 도면이다.
도 8A 및 도 8B는 본 발명의 일 실시예에 따라, 사진 폴더 어플리케이션 실행 시 호버링 입력 수단의 유형을 기초로 선택된 동작의 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따라 대형 디스플레이를 구비한 디바이스에서 감지되는 호버링 입력에 따라 사용자 인터페이스를 변경하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따라 디바이스에서 어플리케이션 실행 시 호버링 입력 수단의 유형에 대응되는 동작들에 관한 정보를 출력하는 사용자 인터페이스를 디스플레이 하는 방법을 설명하기 위한 흐름도이다.
도 11은 본 발명의 일 실시예에 따라 문서 작성 어플리케이션이 실행되는 경우, 디바이스가 호버링 입력 수단의 유형에 따라 사용자 인터페이스를 선택하는 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따라 디바이스에 대한 호버링 입력 수단의 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정하는 방법을 설명하기 위한 흐름도이다.
도 13은 본 발명의 일 실시예에 따라 디바이스에 대한 호버링 입력 수단의 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정하는 방법을 설명하기 위한 도면이다.
도 14 및 도 15는 본 발명의 일 실시예에 따른 디바이스의 구성을 설명하기 위한 블록도이다.
1 is a conceptual diagram for explaining a method of controlling a device according to an embodiment of the present invention.
2 is a flow chart illustrating a method of controlling a device in accordance with an embodiment of the present invention.
3 is a flowchart illustrating a method of selecting a user interface according to input precision of a device according to an embodiment of the present invention.
4 is a view for explaining a plurality of user interfaces according to an embodiment of the present invention.
5 is a diagram for explaining how a device according to an embodiment of the present invention changes information about an operation displayed on a user interface according to the type of the hovering input means 510,
6 is a flowchart for explaining a method for displaying a user interface in which information about an operation is displayed in accordance with an operation unit of an operation determined based on a type of hovering input means, according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining a user interface in which information on an operation is displayed according to an execution unit of an operation selected based on a type of hovering input means when a moving image playback application is executed according to an embodiment of the present invention;
8A and 8B are diagrams for explaining a user interface in which information on an operation is displayed according to an execution unit of an operation selected based on a type of a hovering input means when a photo folder application is executed according to an embodiment of the present invention .
9 is a diagram for explaining a method of changing a user interface according to hovering input sensed by a device having a large display according to an embodiment of the present invention.
10 is a flowchart illustrating a method of displaying a user interface that outputs information on operations corresponding to the type of hovering input means when an application is executed in a device according to an embodiment of the present invention.
11 is a diagram for explaining how a device selects a user interface according to the type of hovering input means when a document creating application is executed according to an embodiment of the present invention.
12 is a flowchart for explaining a method of determining an operation performed when an application is executed according to a slope of a hovering input means for a device according to an embodiment of the present invention.
13 is a diagram for explaining a method for determining an operation performed when an application is executed according to a slope of hovering input means for a device according to an embodiment of the present invention.
14 and 15 are block diagrams for explaining the configuration of a device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

본 명세서에서, 어플리케이션은 특정한 업무를 수행하기 위한 일련의 컴퓨터 프로그램 집합을 말한다. 본 명세서에 기술되는 어플리케이션은 다양할 수 있다. 예를 들어, 음악 재생 어플리케이션, 동영상 재생 어플리케이션, 사진 폴더 어플리케이션, 카메라 어플리케이션, 문서 편집 어플리케이션, 메모 어플리케이션, 다이어리 어플리케이션, 폰 북 어플리케이션, 방송 어플리케이션, 운동 지원 어플리케이션, 결제 어플리케이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.In this specification, an application refers to a set of computer programs for performing a specific task. The applications described herein may vary. For example, there may be a music playback application, a movie playback application, a photo folder application, a camera application, a document editing application, a memo application, a diary application, a phonebook application, a broadcast application, a motion support application, It is not.

한편, 명세서 전체에서 호버링 입력은 호버링 입력 수단이 디바이스로부터 기 설정된 거리 이내에 접근하는 경우, 생성될 수 있다. 호버링 입력 수단이 디바이스에 접근함에 따라 생성되는 호버링 입력은, 디바이스와 호버링 입력 수단 간의 거리 및 호버링 입력 수단의 움직임, 호버링 입력 수단의 유형 중 적어도 하나에 따라 변경될 수 있다. 디바이스가 호버링 입력 수단에 의해 발생되는 호버링 입력을 감지하는 방법은 다양할 수 있다. On the other hand, the hovering input throughout the specification can be generated when the hovering input means approaches within a predetermined distance from the device. The hovering input generated as the hovering input means approaches the device may be changed according to at least one of the distance between the device and the hovering input means, the movement of the hovering input means, and the type of the hovering input means. The manner in which the device senses the hovering input generated by the hovering input means may vary.

본 발명의 일 실시예에 따라, 호버링 입력 수단이 디바이스에 접근하는 경우, 디바이스의 패널 내부에 발생되는 전압의 흐름이 변경될 수 있다. 디바이스 내에서 발생되는 전압의 흐름이 변경됨에 따라, 신호가 발생될 수 있다. 디바이스는 발생되는 신호에 따라, 호버링 입력 수단이 접근한 위치의 좌표를 인식할 수 있다. 여기에서의 좌표는 2차원 평면상의 좌표 뿐만 아니라 3차원 공간 상의 좌표를 포함할 수 있다. According to one embodiment of the present invention, when the hovering input means accesses the device, the flow of the voltage generated inside the panel of the device can be changed. As the flow of voltage generated within the device changes, a signal can be generated. The device can recognize the coordinates of the position where the hovering input means approaches according to the generated signal. The coordinates herein may include coordinates on a two-dimensional plane as well as coordinates on a three-dimensional space.

다른 실시예에 따라, 디바이스는 호버링 입력 수단에서 발생되는 정전기에 따라 변경되는 신호를 인식하여, 호버링 입력 수단이 접근한 위치의 좌표를 인식할 수 있다. According to another embodiment, the device recognizes the signal which is changed in accordance with the static electricity generated in the hovering input means, and can recognize the coordinates of the position where the hovering input means approaches.

또 다른 실시예에 따라, 디바이스는 호버링 입력 수단이 접근함에 따라, 빛이 차단되어 진행하지 못하는 현상을 감지하여, 호버링 입력 수단이 접근한 위치의 좌표를 인식할 수 있다.According to yet another embodiment, as the hovering input means approaches the device, the device detects the phenomenon that the light is blocked and can not proceed, thereby recognizing the coordinates of the position where the hovering input means approaches.

또 다른 실시예에 따라, 디바이스는 호버링 입력 수단이 접근함에 따라, 변하는 자기장을 감지하여, 호버링 입력 수단이 접근한 위치의 좌표를 인식할 수 있다. According to yet another embodiment, as the hovering input means approaches, the device may sense the changing magnetic field and recognize the coordinates of the position to which the hovering input means has approached.

또 다른 실시예에 따라, 디바이스는 호버링 입력 수단에서 발생되는 특정 주파수의 초음파를 감지할 수 있다. 디바이스는 초음파가 감지된 위치를 이용하여, 호버링 입력 수단이 접근한 위치의 좌표를 인식할 수 있다. 한편, 전술한 디바이스가 호버링 입력 수단을 감지하는 방법은 일 예일 뿐, 비 접촉 상태의 입력 수단을 감지할 수 있는 일반적인 근접 센싱(sensing) 기술이 디바이스에서 호버링 입력 수단을 감지하는 방법으로 이용될 수 있다.According to yet another embodiment, the device may sense ultrasonic waves of a specific frequency generated in the hovering input means. The device can recognize the coordinates of the position where the hovering input means approaches using the position where the ultrasonic wave is sensed. On the other hand, a method in which the above-described device senses the hovering input means is only an example, and a general proximity sensing technique capable of sensing the non-contact input means can be used as a method of sensing the hovering input means in the device have.

호버링 입력 수단은 종류 및 성능에 따라 유형이 결정될 수 있다. 호버링 입력 수단에는 펜 및 손가락 등이 포함될 수 있으나, 이는 일 실시예일 뿐, 본 발명의 호버링 입력 수단이 전술한 예에 한정되는 것은 아니다. The type of the hovering input means can be determined according to type and performance. The hovering input means may include a pen, a finger or the like, but this is merely an embodiment, and the hovering input means of the present invention is not limited to the above-described example.

이하 첨부된 도면을 참조하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 디바이스(100)를 제어하는 방법을 설명하기 위한 개념도이다. 1 is a conceptual diagram for explaining a method of controlling a device 100 according to an embodiment of the present invention.

디바이스(100)는 실행되는 어플리케이션에서 수행 가능한 적어도 하나의 동작에 관한 정보가 출력되는 사용자 인터페이스를 디스플레이 할 수 있다. 여기에서, 적어도 하나의 동작에 관한 정보에는 동작을 나타내는 아이콘(20), 동작을 실행함에 따라 디바이스(100)의 화면에 출력되는 이미지, 텍스트 및 동영상 등의 컨텐트(30)가 포함될 수 있다. The device 100 may display a user interface for outputting information on at least one action that can be performed in an executed application. Here, the information about at least one operation may include an icon 20 indicating an operation, and a content 30 such as an image, text, and moving image outputted on the screen of the device 100 as an operation is executed.

도 1을 참조하면, 디바이스(100)에서 문서 편집 어플리케이션이 실행되는 경우, 문서를 구성하는 텍스트를 복사하는 동작, 텍스트를 잘라내는 동작 및 텍스트를 붙여넣는 동작을 나타내는 아이콘들(20)이 사용자 인터페이스 상에 출력될 수 있다. 도 1에서는 동작을 나타내는 아이콘들(20)이 디바이스(100)로부터 떨어진 3차원의 공간 상에 디스플레이 되지만, 이는 본 발명의 일 예일 뿐, 디바이스(100)의 화면 상에, 동작을 나타내는 아이콘(20)이 표시될 수 있다. 한편, 디바이스(100)에서 텍스트를 복사하는 동작을 수행함에 따라 선택된 텍스트(30)가 사용자 인터페이스 상에 디스플레이 될 수 있다. 1, when a document editing application is executed in the device 100, icons 20 indicating an operation of copying text constituting a document, an operation of cutting text, and an operation of pasting text are displayed on a user interface Lt; / RTI > Icons 20 indicating the operation are displayed on the three-dimensional space separated from the device 100 in Fig. 1, but this is only an example of the present invention. On the screen of the device 100, icons 20 ) May be displayed. Meanwhile, the selected text 30 may be displayed on the user interface by performing an operation of copying text in the device 100. [

본 발명의 일 실시예에 따른 디바이스(100)는 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들을 저장할 수 있다. 복수의 사용자 인터페이스들에서는 동작에 관한 정보를 선택하기 위해 획득되어야 하는 호버링 입력의 위치가 서로 상이할 수 있다. The device 100 according to an embodiment of the present invention may store a plurality of user interfaces related to an executed application. In a plurality of user interfaces, the positions of hovering inputs that must be obtained in order to select information about the operation may be different from each other.

예를 들어, 제 1 사용자 인터페이스가 디스플레이 되는 경우, 디바이스(100)는 디바이스와의 거리가 일정 값(D1, D2, D3)인 지점에 호버링 입력 수단(10)이 위치하는 경우, 호버링 입력 수단(10)의 위치에 대응되는 동작을 선택할 수 있다. 다른 예에 따라, 제 2 사용자 인터페이스가 디스플레이 되는 경우, 디바이스(100)는 호버링 입력 수단(10)과 디바이스와의 거리 및 2차원 평면에서의 호버링 입력 수단(10)의 위치에 따라 대응되는 동작을 선택할 수 있다. 다만, 이는 본 발명의 일 실시예에 따른 복수의 사용자 인터페이스들의 일 예일 뿐, 전술한 예에 따라 사용자 인터페이스가 한정되는 것은 아니다. For example, when the first user interface is displayed, when the hovering input means 10 is located at a point where the distance between the device 100 and the device is a predetermined value (D1, D2, D3), the hovering input means 10 can be selected. According to another example, when the second user interface is displayed, the device 100 can perform a corresponding operation according to the distance between the hovering input means 10 and the device and the position of the hovering input means 10 in the two-dimensional plane You can choose. However, this is only one example of a plurality of user interfaces according to an embodiment of the present invention, and the user interface is not limited according to the above-described example.

본 발명의 일 실시예에 따른 복수의 사용자 인터페이스들에서는 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보가 각각 다른 위치에 출력될 수 있다. In a plurality of user interfaces according to an exemplary embodiment of the present invention, information on operations that can be performed when an application is executed may be output to different locations.

한편, 디바이스(100)는 호버링 입력을 송신하는 호버링 입력 수단(10)의 유형에 따라 복수의 사용자 인터페이스들 중 어느 하나를 선택할 수 있다. 호버링 입력 수단(10)의 유형은 호버링 입력 수단의 종류 및 성능에 따라 결정될 수 있다. 호버링 입력 수단의 종류에는 펜 및 손가락 등이 포함될 수 있다. On the other hand, the device 100 can select any one of a plurality of user interfaces according to the type of the hovering input means 10 transmitting the hovering input. The type of the hovering input means 10 can be determined according to the type and performance of the hovering input means. The hovering input means may include a pen, a finger, or the like.

또한, 호버링 입력 수단의 성능은 호버링 입력 수단이 사용자 인터페이스 상에 출력되는 서로 다른 정보를 식별하여 호버링 입력을 의도한 정보에 매핑시킬 수 있는지를 나타내는 정밀도에 따라 결정될 수 있다. Further, the performance of the hovering input means can be determined according to the accuracy that indicates whether the hovering input means can identify the different information output on the user interface and map the hovering input to the intended information.

예를 들어, 손가락과 펜을 비교하면, 손가락의 두께와 펜의 두께 차이에 의해, 정밀도가 상이할 수 있다. 예를 들어, 손가락은 디바이스(100)에 2mm 간격을 두고 위치한 정보를 각각 식별하여 호버링 입력을 의도된 정보에 매핑시킬 수 없지만, 펜은 디바이스(100)에 2mm 간격을 두고 위치한 정보를 각각 식별하여, 호버링 입력을 의도된 정보에 매핑시킬 수 있다. 본 명세서에서는 호버링 입력 수단으로부터 수신되는 호버링 입력이 사용자 인터페이스 상의 서로 다른 정보를 식별할 수 있는 정도를 정밀도로 설명하도록 한다. 전술한 예에서, 펜의 정밀도가 손가락의 정밀도 보다 높은 것으로 설명할 수 있다. For example, when the fingers and the pens are compared, the precision may differ depending on the difference between the thickness of the fingers and the thickness of the pen. For example, the fingers may not respectively map the hovering input to the intended information by identifying information located at 2 mm spacing on the device 100, but the pen identifies the information located at 2 mm spacing from the device 100 , The hovering input may be mapped to the intended information. In this specification, the degree to which the hovering input received from the hovering input means can identify different information on the user interface is described with precision. In the above example, it can be explained that the precision of the pen is higher than that of the finger.

본 발명의 일 실시예에 따른 디바이스(100)는 복수의 사용자 인터페이스들 중에서, 출력되는 동작에 관한 정보의 위치가 결정된 호버링 입력 수단(10)의 정밀도에 대응될 수 있는 사용자 인터페이스를 선택할 수 있다. 예를 들어, 호버링 입력 수단(10)의 유형이 손가락으로 결정된 경우, 디바이스(100)는 동작에 관한 정보가 2mm 를 초과하는 간격의 거리에 따라 출력되는 사용자 인터페이스를 선택할 수 있다. The device 100 according to the embodiment of the present invention can select a user interface among the plurality of user interfaces that can correspond to the precision of the hovering input means 10 in which the position of the information about the outputted operation is determined. For example, when the type of the hovering input means 10 is determined with a finger, the device 100 can select a user interface whose information on operation is output according to a distance of an interval exceeding 2 mm.

다른 예에 따라, 디바이스(100)는 어플리케이션 실행 시, 선택된 동작이 수행되는 수행 단위에 대응되는 복수의 사용자 인터페이스들을 저장할 수 있다. 예를 들어, 동영상 재생 어플리케이션이 실행되는 경우, 탐색되는 동영상의 프레임 단위가 전체 프레임 개수의 10%인 사용자 인터페이스와 1%인 사용자 인터페이스가 디바이스(100)에 저장될 수 있다. According to another example, the device 100 may store a plurality of user interfaces corresponding to a performance unit in which the selected operation is performed when the application is executed. For example, when a moving picture playback application is executed, a user interface having a frame unit of 10% of the total frame count and a user interface having 1% of a moving picture frame to be searched can be stored in the device 100. [

디바이스(100)는 획득된 호버링 입력 수단(10)의 유형에 따라 동작의 수행 단위 별로 정보를 출력하는 복수의 사용자 인터페이스들 중 어느 하나를 선택할 수 있다. 예를 들어, 디바이스(100)는 상대적으로 정밀도가 낮은 손가락의 경우, 탐색되는 동영상의 프레임 단위가 전체 프레임 개수의 10%인 사용자 인터페이스를 선택할 수 있다. 또한, 디바이스(100)는 상대적으로 정밀도가 높은 펜의 경우, 탐색되는 동영상의 프레임 단위가 전체 프레임 개수의 1%인 사용자 인터페이스를 선택할 수 있다. The device 100 may select any one of a plurality of user interfaces for outputting information for each execution unit of operation according to the type of the obtained hovering input means 10. [ For example, in the case of a finger having relatively low precision, the device 100 can select a user interface in which the frame unit of the moving picture to be searched is 10% of the total number of frames. Further, in the case of a pen with a relatively high precision, the device 100 can select a user interface whose frame unit of the moving picture to be searched is 1% of the total number of frames.

디바이스(100)는 스마트폰, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, GPS(global positioning system) 장치, 스마트 워치(smart watch) 및 스마트 글라스(smart glass) 등의 웨어러블 디바이스(wearable device), 랩톱, 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다.The device 100 may be a wearable device such as a smart phone, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, a global positioning system (GPS) device, a smart watch, ), Laptops, and other mobile or non-mobile computing devices.

도 2는 본 발명의 일 실시예에 따라 디바이스(100)를 제어하는 방법을 설명하기 위한 흐름도이다. 2 is a flow chart illustrating a method of controlling a device 100 in accordance with an embodiment of the present invention.

단계 S210에서, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단(10)의 유형에 관한 정보를 획득한다.In step S210, the device 100 obtains information about the type of the hovering input means 10 that sends the hovering input to the device 100.

본 발명의 일 실시예에 따른 디바이스(100)는 호버링 입력 수단(10)이 감지됨에 따라 변경되는 정전 용량의 정도에 따라 호버링 입력 수단(10)의 유형을 결정할 수 있다. 디바이스(100)는 미리 저장된 호버링 입력 수단의 유형에 따른 정전 용량의 변경 정도에 관한 정보와 호버링 입력 수단(10)이 감지됨에 따라 변경된 정전 용량의 정도를 비교하여, 감지된 호버링 입력 수단(10)의 유형을 결정할 수 있다. The device 100 according to an embodiment of the present invention can determine the type of the hovering input means 10 according to the degree of capacitance that is changed as the hovering input means 10 is detected. The device 100 compares the information about the degree of change in capacitance according to the type of the hovering input means previously stored and the degree of the changed capacitance as the hovering input means 10 is detected, Can be determined.

다른 예에 따라, 디바이스(100)는 호버링 입력 수단(10)으로부터 송신되는 신호를 식별하여, 호버링 입력 수단(10)의 유형을 결정할 수 있다. 또 다른 예에 따라, 디바이스(100)는 호버링 입력 수단(10)의 형태를 감지하여, 호버링 입력 수단(10)의 유형을 결정할 수 있다. According to another example, the device 100 may identify the signal transmitted from the hovering input means 10 to determine the type of hovering input means 10. According to another example, the device 100 may sense the type of the hovering input means 10 and determine the type of the hovering input means 10.

단계 S220에서, 디바이스(100)는 디바이스(100)에서 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들 중 획득된 호버링 입력 수단의 유형에 관한 정보에 대응하는 사용자 인터페이스를 디스플레이 한다. In step S220, the device 100 displays a user interface corresponding to information on the type of hovering input means obtained among a plurality of user interfaces related to an application executed in the device 100. [

본 발명의 일 실시예에 따른 디바이스(100)는 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들을 저장할 수 있다. 복수의 사용자 인터페이스들은 각각 복수의 동작들에 관한 정보 중 어느 하나를 선택하기 위해 획득되어야 하는 호버링 입력의 위치가 서로 상이할 수 있다. The device 100 according to an embodiment of the present invention may store a plurality of user interfaces related to an executed application. The plurality of user interfaces may be different from each other in the location of the hovering input, which must be obtained in order to select any one of the information regarding the plurality of operations.

예를 들어, 동영상 재생 어플리케이션이 실행되는 경우, 관련된 동작에는 동영상을 재생하는 동작, 동영상을 정지하는 동작, 동영상을 앞으로 감는 동작 및 동영상을 뒤로 감는 동작이 포함될 수 있다. 동영상 재생 어플리케이션에 관한 복수의 사용자 인터페이스들 중 제 1 사용자 인터페이스에서는 디바이스와의 거리가 D1, D2, D3, D4인 지점에 호버링 입력 수단(10)이 위치하는 경우, 호버링 입력 수단(10)의 위치에 대응되는 동작이 선택될 수 있다. 다른 예에 따라, 동영상 재생 어플리케이션에 관한 복수의 사용자 인터페이스들 중 제 2 사용자 인터페이스에서는 디바이스와의 거리가 D1, D3, D5, D7인 지점에 호버링 입력 수단(10)이 위치하는 경우, 호버링 입력 수단(10)의 위치에 대응되는 동작이 선택될 수 있다. For example, when a moving image playback application is executed, related operations may include an operation of playing back a moving image, an operation of stopping a moving image, an operation of moving a moving image forward, and an operation of moving a moving image backward. In the first user interface among the plurality of user interfaces related to the moving image playback application, when the hovering input means 10 is located at a position where the distance from the device is D1, D2, D3, D4, the position of the hovering input means 10 Can be selected. According to another example, when the hovering input means 10 is located at a point where the distances to the device are D1, D3, D5, and D7 in the second user interface among the plurality of user interfaces related to the moving image playback application, The operation corresponding to the position of the display unit 10 can be selected.

디바이스(100)는 호버링 입력 수단(10)의 성능에 따라, 복수의 사용자 인터페이스들 중 어느 하나를 선택할 수 있다. 호버링 입력 수단(10)의 성능은 호버링 입력 수단(10)의 유형마다 상이할 수 있다. 호버링 입력 수단(10)의 성능은 호버링 입력 수단이 사용자 인터페이스 상에 출력되는 서로 다른 정보를 식별하여 호버링 입력을 의도한 정보에 매핑시킬 수 있는 정도를 나타내는 정밀도에 따라 결정될 수 있다. The device 100 may select any of a plurality of user interfaces, depending on the capabilities of the hovering input means 10. [ The performance of the hovering input means 10 may differ for each type of hovering input means 10. The performance of the hovering input means 10 can be determined according to the accuracy that indicates how much the hovering input means can identify the different information output on the user interface and map the hovering input to the intended information.

다른 예에 따라, 디바이스(100)는 어플리케이션 실행 시, 선택된 동작이 수행되는 수행 단위에 대응되는 복수의 사용자 인터페이스들을 저장할 수 있다. 예를 들어, 동영상 재생 어플리케이션이 실행되는 경우, 탐색되는 동영상의 프레임 단위가 전체 프레임 개수의 10%인 사용자 인터페이스와 1%인 사용자 인터페이스가 디바이스(100)에 저장될 수 있다. According to another example, the device 100 may store a plurality of user interfaces corresponding to a performance unit in which the selected operation is performed when the application is executed. For example, when a moving picture playback application is executed, a user interface having a frame unit of 10% of the total frame count and a user interface having 1% of a moving picture frame to be searched can be stored in the device 100. [

디바이스(100)는 획득된 호버링 입력 수단(10)의 유형에 따라 동작의 수행 단위 별로 정보를 출력하는 복수의 사용자 인터페이스들 중 어느 하나를 선택할 수 있다. 이에 대해서는 도 7 내지 도 9를 참조하여 구체적으로 후술하도록 한다.The device 100 may select any one of a plurality of user interfaces for outputting information for each execution unit of operation according to the type of the obtained hovering input means 10. [ This will be described later in detail with reference to Figs. 7 to 9.

디바이스(100)는 디스플레이 된 사용자 인터페이스 상에서, 수신한 호버링 입력에 대응되는 동작을 선택할 수 있다. 예를 들어, 디바이스(100)는 선택된 사용자 인터페이스 상에서 위치 D2에 홀딩된 호버링 입력 수단(10)에 의해 송신되는 호버링 입력을 기초로 잘라내기 동작을 선택할 수 있다. The device 100 may select, on the displayed user interface, an action corresponding to the received hovering input. For example, the device 100 may select a cut operation based on the hovering input transmitted by the hovering input means 10 held at position D2 on the selected user interface.

다른 예에 따라, 디바이스(100)는 동작의 수행 단위 별로 정보를 출력하는 사용자 인터페이스를 디스플레이 할 수 있다. 예를 들어, 동영상 재생 어플리케이션의 경우, 디바이스(100)는 화면상에, 동영상의 빨리 감기 동작이 수행되는 단위를 전체 프레임 개수의 10%의 개수씩 표시한 사용자 인터페이스를 디스플레이 할 수 있다. According to another example, the device 100 may display a user interface that outputs information for each performance unit of an operation. For example, in the case of a moving picture reproducing application, the device 100 may display on the screen a user interface displaying a unit in which the fast forwarding operation of the moving picture is performed by the number of 10% of the total number of frames.

도 3은 본 발명의 일 실시예에 따라 디바이스(100)의 입력 정밀도에 따라 사용자 인터페이스를 선택하는 방법을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating a method of selecting a user interface according to the input precision of the device 100 according to an embodiment of the present invention.

단계 310에서, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단(10)의 유형에 관한 정보를 획득한다. At step 310, device 100 obtains information about the type of hovering input means 10 that sends the hovering input to device 100.

한편, 단계 310은 도 2를 참조하여 전술한 단계 210과 대응될 수 있다.Meanwhile, step 310 may correspond to step 210 described above with reference to FIG.

단계 320에서, 디바이스(100)는 호버링 입력 수단(10)의 유형에 기초하여, 호버링 입력 수단(10)의 정밀도를 결정할 수 있다. 정밀도는 호버링 입력 수단(10)이 사용자 인터페이스 상에 출력되는 정보들 각각을 식별하기 위해 요구되는 정보들의 위치의 차이에 따라 결정될 수 있다. In step 320, the device 100 may determine the precision of the hovering input means 10 based on the type of the hovering input means 10. The accuracy can be determined according to the difference in position of the information required for the hovering input means 10 to identify each of the information output on the user interface.

예를 들어, 손가락은 디바이스(100)에 2mm 간격을 두고 위치한 정보를 각각 식별하여 호버링 입력을 의도된 정보에 매핑시킬 수 없지만, 펜은 디바이스(100)에 2mm 간격을 두고 위치한 정보를 각각 식별하여, 호버링 입력을 의도된 정보에 매핑시킬 수 있다. 전술한 예에 따르면, 펜의 정밀도가 손가락의 정밀도에 비해 높다는 것을 확인할 수 있다. For example, the fingers may not respectively map the hovering input to the intended information by identifying information located at 2 mm spacing on the device 100, but the pen identifies the information located at 2 mm spacing from the device 100 , The hovering input may be mapped to the intended information. According to the example described above, it can be confirmed that the precision of the pen is higher than the precision of the finger.

단계 330에서, 디바이스(100)는 결정된 입력 정밀도에 따라 어플리케이션에서 수행되는 적어도 하나의 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택한다. In step 330, the device 100 selects a user interface from which information regarding at least one operation performed in the application is output, in accordance with the determined input precision.

디바이스(100)에서 출력 가능한 복수의 사용자 인터페이스들은 각각 동작들에 관한 정보를 선택하기 위해 호버링 입력이 수신되어야 하는 위치가 상이할 수 있다. 예를 들어, 제 1 사용자 인터페이스의 경우, 서로 다른 동작들에 관한 정보를 식별하여 어느 하나의 동작을 선택하기 위해 호버링 입력이 수신되어야 하는 위치의 차이가 2mm 간격일 수 있다. 한편, 제 2 사용자 인터페이스의 경우에는 서로 다른 동작들에 관한 정보를 식별하여 어느 하나의 동작을 선택하기 위해 호버링 입력이 수신되어야 하는 위치의 차이가 3mm 간격일 수 있다. The plurality of user interfaces that can be output at the device 100 may each be different in the position at which the hovering input should be received to select information about the operations. For example, in the case of a first user interface, the difference in position where the hovering input should be received in order to identify information about the different operations and select one operation may be 2 mm apart. On the other hand, in the case of the second user interface, the difference in position where the hovering input should be received in order to identify information on different operations and select one operation may be 3 mm intervals.

본 발명의 일 실시예에 따른 디바이스(100)는 2mm 간격에 따라 출력되는 동작에 관한 정보를 식별하기에 호버링 입력 수단(10)의 정밀도가 낮은 경우, 3mm 간격에 따라 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택할 수 있다. 예를 들어, 디바이스(100)는 호버링 입력 수단이 손가락인 경우, 손가락의 정밀도에 따라 3mm 간격에 따라 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택할 수 있다. The device 100 according to an embodiment of the present invention identifies information about an operation output at intervals of 2 mm, and when the accuracy of the hovering input means 10 is low, information about the operation is output at intervals of 3 mm You can select the user interface. For example, when the hovering input means is a finger, the device 100 can select a user interface for outputting information on the operation in accordance with the accuracy of the finger at intervals of 3 mm.

다른 예에 따라 디바이스(100)는 전술한 예와 같이 호버링 입력 수단(10)의 정밀도가 낮아, 호버링 입력 수단으로부터 수신 가능한 호버링 입력들이 동작들에 관한 정보에 각각 대응되지 않는 경우, 복수의 동작들에 관한 정보를 그룹으로 분류하여 출력한 사용자 인터페이스를 선택할 수 있다. 여기에서, 동작들에 관한 정보는 기 설정된 기간 동안 동작이 실행된 횟수 및 동작들 간의 관련도 중 적어도 하나에 따라 2개 이상의 그룹으로 분류될 수 있다. According to another example, the device 100 is configured such that the accuracy of the hovering input means 10 is low, as in the example described above, so that if the hovering inputs receivable from the hovering input means do not correspond to information, respectively, Can be classified into groups and output the user interface. Here, the information on the operations can be classified into two or more groups according to at least one of the number of times the operation has been performed for a predetermined period and the relation between the operations.

한편, 디바이스(100)는 호버링 입력 수단(10)의 정밀도가 임계값 이상인 경우, 동작들에 관한 정보가 호버링 입력 수단(10)과 디바이스(100) 간의 거리 차이에 따라 출력되는 사용자 인터페이스를 선택할 수 있다. 디바이스(100)는 호버링 입력 수단(10)의 정밀도가 임계값 미만인 경우에는, 동작들에 관한 정보를 호버링 입력 수단(10)과 디바이스(100)간의 거리 차이와 호버링 입력 수단(10)의 2차원 평면 상에서의 위치 정보에 따라 출력되는 사용자 인터페이스를 선택할 수도 있다. 이에 대해서는 도 4를 참조하여 보다 구체적으로 후술하도록 한다. On the other hand, when the accuracy of the hovering input means 10 is equal to or greater than the threshold value, the device 100 can select the user interface to be output according to the distance difference between the hovering input means 10 and the device 100 have. The device 100 determines whether the accuracy of the hovering input means 10 is less than the threshold value by comparing the information about the operations with the distance difference between the hovering input means 10 and the device 100, And may select a user interface to be output according to positional information on the plane. This will be described later in more detail with reference to FIG.

단계 340에서, 디바이스(100)는 선택된 사용자 인터페이스를 디스플레이 한다. 디바이스(100)는 디스플레이 된 사용자 인터페이스 상에서, 수신한 호버링 입력에 대응되는 동작을 선택할 수 있다.In step 340, the device 100 displays the selected user interface. The device 100 may select, on the displayed user interface, an action corresponding to the received hovering input.

한편, 단계 340은 도 2를 참조하여 전술한 단계 230과 대응될 수 있다. Meanwhile, step 340 may correspond to step 230 described above with reference to FIG.

도 4는 본 발명의 일 실시예에 따른 복수의 사용자 인터페이스들을 설명하기 위한 도면이다. 4 is a view for explaining a plurality of user interfaces according to an embodiment of the present invention.

도 4의 (a)를 참조하면, 디바이스(100)는 호버링 입력 수단인 손가락(410)으로부터 호버링 입력을 수신할 수 있다. 디바이스(100)는 호버링 입력 수단인 손가락(410)의 정밀도를 결정할 수 있다. 예를 들어, 디바이스(100)는 미리 저장된 데이터로부터 손가락(410)의 정밀도에 대한 정보를 획득할 수 있다. Referring to Figure 4 (a), the device 100 may receive a hovering input from a finger 410 that is a hovering input means. The device 100 may determine the precision of the finger 410 as a hovering input means. For example, the device 100 may obtain information about the precision of the finger 410 from pre-stored data.

디바이스(100)는 손가락(410)의 정밀도를 기초로, 손가락(410)으로부터 수신되는 호버링 입력들이 각각 의도된 동작에 관한 정보에 매핑될 수 있는 사용자 인터페이스를 선택할 수 있다. 여기에서, 손가락(410)의 정밀도는 디바이스(100)에 미리 설정된 임계값 미만으로 가정한다. The device 100 may select a user interface on which the hovering inputs received from the finger 410 may be mapped to information regarding each intended action based on the precision of the finger 410. [ Here, the precision of the finger 410 is assumed to be less than a preset threshold value in the device 100. [

도 4의 (a)에서 디바이스(100)는 손가락(410)의 정밀도가 임계값 미만이므로, 디바이스와 호버링 입력 수단 간의 거리 및 호버링 입력 수단의 2차원 평면상에서의 위치 정보에 따라 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보 중 어느 하나가 선택될 수 있는 사용자 인터페이스를 출력할 수 있다. 4A, since the precision of the finger 410 is less than the threshold value, the device 100 can perform the execution of the application in accordance with the distance between the device and the hovering input means and the position information on the two- And may output a user interface from which any one of the information regarding the operations can be selected.

디바이스(100)와 손가락(410) 간의 거리가 D1인 경우, 디바이스(100)는 제 1 그룹(420)에 포함된 동영상을 재생하는 동작, 동영상을 정지하는 동작, 동영상을 일시 정지하는 동작들 중에서 어느 하나를 선택할 수 있다. 디바이스(100)는 2차원 평면 상에서의 손가락(410)의 위치 정보를 이용하여, 동영상을 재생하는 동작, 동영상을 정지하는 동작, 동영상을 일시 정지하는 동작들 중에서 어느 하나를 선택할 수 있다. 예를 들어, 2차원 평면 상에서의 호버링 입력 수단의 위치의 좌표가 (x1, y1)인 경우, 디바이스(100)는 좌표 (x1, y1)의 위치에 대응되는 동작인 동영상을 재생하는 동작을 선택할 수 있다. In the case where the distance between the device 100 and the finger 410 is D1, the device 100 can perform the operations of reproducing the moving image included in the first group 420, stopping the moving image, You can choose either one. The device 100 can select any one of an operation to reproduce a moving image, an operation to stop a moving image, and a operation to pause a moving image using the position information of the finger 410 on a two-dimensional plane. For example, when the coordinate of the position of the hovering input means on the two-dimensional plane is (x1, y1), the device 100 selects the operation of reproducing the moving image corresponding to the position of the coordinate (x1, y1) .

또한, 디바이스(100)와 손가락(410) 간의 거리가 D3인 경우, 디바이스(100)는 제 2 그룹(430)에 포함된 동영상을 앞으로 감는 동작 및 뒤로 감는 동작들 중에서 어느 하나를 선택할 수 있다. 디바이스(100)는 2차원 평면 상에서의 손가락(410)의 위치 정보를 이용하여, 동영상을 앞으로 감는 동작 및 뒤로 감는 동작들 중에서 어느 하나를 선택할 수 있다.If the distance between the device 100 and the finger 410 is D3, the device 100 can select any one of the forward and backward movements of the moving image included in the second group 430. [ The device 100 can select any one of the forward and backward movements of the moving image using the position information of the finger 410 on the two-dimensional plane.

한편, 디바이스(100)는 기 설정된 기간 동안 각각의 동작이 실행된 횟수 및 동작들간의 관련도에 따라, 동작들을 그룹으로 분류할 수 있다. 예를 들어, 디바이스(100)는 사용 횟수가 높은 동작들을 동일한 그룹으로 분류할 수 있다. 또한, 디바이스(100)는 동영상을 재생하는 동작들 중에서, 재생되는 프레임을 변경시키는 동작인 앞으로 감는 동작과 뒤로 감는 동작을 동일한 그룹으로 분류할 수도 있다. On the other hand, the device 100 may classify the operations into groups according to the number of times each operation has been performed for a predetermined period and the degree of relation between the operations. For example, the device 100 may classify operations with a high number of uses into the same group. In addition, the device 100 may classify the forward and backward operations, which are operations for changing the frame to be reproduced, into the same group, among the operations for reproducing the moving image.

도 4의 (b)를 참조하면, 디바이스(100)는 호버링 입력 수단인 펜(440)으로부터 호버링 입력을 수신할 수 있다. 디바이스(100)는 호버링 입력 수단인 펜(440)의 정밀도를 결정할 수 있다. 예를 들어, 디바이스(100)는 미리 저장된 데이터로부터 펜(440)의 정밀도에 대한 정보를 획득할 수 있다. 4B, device 100 may receive a hovering input from pen 440, which is hovering input means. The device 100 can determine the precision of the pen 440, which is the hovering input means. For example, the device 100 may obtain information about the precision of the pen 440 from pre-stored data.

디바이스(100)는 펜(440)의 정밀도를 기초로, 펜(440)으로부터 수신되는 호버링 입력들이 각각 의도된 동작에 관한 정보에 매핑될 수 있는 사용자 인터페이스를 선택할 수 있다. 여기에서, 펜(440)의 정밀도는 디바이스(100)에 미리 설정된 임계값 이상으로 가정한다. The device 100 may select a user interface on which the hovering inputs received from the pen 440 may be mapped to information regarding each intended action, based on the precision of the pen 440. [ Here, the precision of the pen 440 is assumed to be equal to or greater than a preset threshold value in the device 100. [

도 4의 (b)에서 디바이스(100)는 펜(440)의 정밀도가 임계값 이상이므로, 디바이스와 호버링 입력 수단 간의 거리에 따라 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보 중 어느 하나가 선택될 수 있는 사용자 인터페이스를 출력할 수 있다. 4B, since the precision of the pen 440 is equal to or greater than the threshold value, the device 100 can select any one of the information on the operations that can be performed when the application is executed according to the distance between the device and the hovering input means You can output the user interface.

디바이스(100)와 펜(440) 간의 거리가 D1인 경우, 디바이스(100)는 동영상을 재생하는 동작을 선택할 수 있다. 또한, 디바이스(100)와 펜(440) 간의 거리가 D2인 경우, 디바이스(100)는 동영상을 정지하는 동작을 선택할 수 있다. 디바이스(100)와 펜(440) 간의 거리가 D3인 경우, 디바이스(100)는 동영상을 일시 정지하는 동작을 선택할 수 있다. 또한, 디바이스(100)와 펜(440) 간의 거리가 각각 D4, D5인 경우, 디바이스(100)는 동영상을 뒤로 빨리 감는 동작 및 앞으로 빨리 감는 동작을 선택할 수 있다. When the distance between the device 100 and the pen 440 is D1, the device 100 can select an operation to reproduce the moving image. In addition, when the distance between the device 100 and the pen 440 is D2, the device 100 can select an operation to stop the moving image. When the distance between the device 100 and the pen 440 is D3, the device 100 can select an operation to pause the moving image. In addition, when the distances between the device 100 and the pen 440 are D4 and D5, respectively, the device 100 can select an operation of fast forwarding the moving image backward and fast forwarding the moving image.

도 5는 본 발명의 일 실시예에 따른 디바이스(100)가 호버링 입력 수단(510, 520)의 유형에 따라 사용자 인터페이스 상에 표시되는 동작에 관한 정보를 출력하는 방법을 설명하기 위한 도면이다. 5 is a diagram for explaining a method in which a device 100 according to an embodiment of the present invention outputs information on an operation displayed on a user interface according to the type of the hovering input means 510 and 520.

본 발명의 일 실시예에 따른 디바이스(100)는 어플리케이션 실행 시 수행되는 동작들을, 동작들 각각을 수행하는데 필요한 호버링 입력 수단의 정밀도에 따라 분류할 수 있다. 예를 들어, 디바이스(100)는 동작을 수행하는데 필요한 호버링 입력 수단의 정밀도가 높은 동작들을 분류하여. 분류된 동작들에 관한 정보가 출력되는 제 1 사용자 인터페이스를 생성할 수 있다. 다른 예를 들어, 디바이스(100)는 동작을 수행하는데 필요한 호버링 입력 수단의 정밀도가 낮은 동작들을 분류하여. 분류된 동작들에 관한 정보가 출력되는 제 2 사용자 인터페이스를 생성할 수 있다.The device 100 according to an embodiment of the present invention can classify the operations performed at the time of application execution according to the precision of the hovering input means necessary to perform each of the operations. For example, the device 100 may classify high-precision operations of the hovering input means necessary to perform an operation. And generate a first user interface for outputting information on the classified operations. As another example, the device 100 may classify low-precision operations of the hovering input means necessary to perform an operation. And generate a second user interface for outputting information on the classified operations.

도 5의 (a)에는, 통화 어플리케이션이 실행되는 경우, 호버링 입력 수단(510, 520)의 유형에 따라 출력되는 서로 다른 사용자 인터페이스가 도시되어 있다. 디바이스(100)는 통화 어플리케이션 실행 시, 손가락(510)으로부터 호버링 입력을 수신하는 경우, 관련된 동작들에 관한 정보 중에서, 부재중 송수신 리스트가 표시된 사용자 인터페이스(530)를 출력할 수 있다. 또한, 디바이스(100)는 통화 어플리케이션 실행 시, 펜(520)으로부터 호버링 입력을 수신하는 경우, 관련된 동작들에 관한 정보 중에서, 디바이스(100)에 저장된 연락처의 리스트가 표시된 사용자 인터페이스(540)를 출력할 수 있다. 5 (a) shows different user interfaces output according to the type of hovering input means 510, 520 when a call application is executed. When the device 100 receives the hovering input from the finger 510 at the time of execution of the call application, the device 100 may output the user interface 530 in which the missed transmission / reception list is displayed, from the information related to the related operations. In addition, when receiving a hovering input from the pen 520, the device 100 outputs a user interface 540 displaying a list of contacts stored in the device 100, out of information on related operations, can do.

도 5의 (b)에는, 메일 어플리케이션이 실행되는 경우, 호버링 입력 수단(510, 520)의 유형에 따라 출력되는 서로 다른 사용자 인터페이스가 도시되어 있다. 디바이스(100)는 메일 어플리케이션 실행 시, 손가락(510)으로부터 호버링 입력을 수신하는 경우, 관련된 동작들에 관한 정보 중에서, 읽지 않은 메일들의 리스트가 표시된 사용자 인터페이스(550)를 출력할 수 있다. 또한, 디바이스(100)는 메일 어플리케이션 실행 시, 펜(520)으로부터 호버링 입력을 수신하는 경우, 관련된 동작들에 관한 정보 중에서, 디바이스(100)에서 일정 기간 동안 수신한 메일 전체의 리스트가 표시된 사용자 인터페이스(560)를 출력할 수 있다. 5B shows different user interfaces output depending on the type of the hovering input means 510 and 520 when the mail application is executed. The device 100 may output a user interface 550 displaying a list of unread mails among information regarding related operations when receiving a hovering input from the finger 510 at the time of execution of the mail application. When receiving a hovering input from the pen 520 at the time of execution of the mail application, the device 100 displays a list of all mail received from the device 100 for a predetermined period of time (560).

도 5의 (c)에는, 웹(510, 520) 어플리케이션이 실행되는 경우, 호버링 입력 수단의 유형에 따라 출력되는 서로 다른 사용자 인터페이스가 도시되어 있다. 디바이스(100)는 웹 어플리케이션 실행 시, 손가락(510)으로부터 호버링 입력을 수신하는 경우, 관련된 동작들에 관한 정보 중에서, 사용자가 방문한 사이트들이 표시된 사용자 인터페이스(570)를 출력할 수 있다. 또한, 디바이스(100)는 웹 어플리케이션 실행 시, 펜(520)으로부터 호버링 입력을 수신하는 경우, 관련된 동작들에 관한 정보 중에서, 즐겨찾기 리스트가 표시된 사용자 인터페이스(580)를 출력할 수 있다. FIG. 5C shows different user interfaces output according to the type of the hovering input means when the web 510, 520 application is executed. When the device 100 receives the hovering input from the finger 510 at the time of execution of the web application, the device 100 may output the user interface 570 in which the sites visited by the user are displayed, from the information related to the related operations. In addition, when the device 100 receives the hovering input from the pen 520 at the time of executing the web application, the device 100 may output the user interface 580 in which the favorite list is displayed, from the information related to the related operations.

도 6은 본 발명의 일 실시예에 따라 디바이스(100)가 호버링 입력 수단의 유형에 기초하여 결정된 동작의 수행 단위에 따라 동작에 관한 정보가 표시된 사용자 인터페이스를 디스플레이 하는 방법을 설명하기 위한 흐름도이다. Figure 6 is a flow chart illustrating a method of displaying a user interface in which information about an action is displayed in accordance with an execution unit of an action determined based on the type of hovering input means, in accordance with an embodiment of the present invention.

단계 610에서, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단(10)의 유형에 관한 정보를 획득한다. In step 610, the device 100 obtains information about the type of hovering input means 10 that sends the hovering input to the device 100.

한편, 단계 610은 도 2를 참조하여 전술한 단계 210과 대응될 수 있다.Meanwhile, step 610 may correspond to step 210 described above with reference to FIG.

단계 620에서, 디바이스(100)는 호버링 입력 수단(10)의 유형에 기초하여, 어플리케이션 실행 시 선택된 동작의 수행 단위를 결정한다. 여기에서, 동작의 수행 단위는 동작을 수행함에 따라 변경되는 정보의 양에 따라 결정될 수 있다. 예를 들어, 디바이스(100)에서 동영상을 앞으로 감는 동작을 수행하는 경우, 결정된 동작의 수행 단위에 따라 변경되는 프레임의 개수가 전체 프레임 개수의 10%일 수 있고, 전체 프레임 개수의 1%일 수도 있다. In step 620, the device 100 determines the unit of performance of the selected operation upon execution of the application, based on the type of the hovering input means 10. [ Here, the execution unit of the operation can be determined according to the amount of information to be changed as the operation is performed. For example, when the device 100 performs an operation of moving the moving image forward, the number of frames changed according to the determined unit of operation may be 10% of the total number of frames, or 1% have.

한편, 호버링 입력 수단(10)의 유형에 따라 호버링 입력 수단(10)의 정밀도가 결정될 수 있다. 디바이스(100)는 호버링 입력 수단(10)의 정밀도에 대응되는 동작의 수행 단위를 결정할 수 있다. 예를 들어, 디바이스(100)는 상대적으로 정밀도가 낮은 손가락이 호버링 입력 수단인 경우, 변경되는 동영상의 프레임 개수를 전체 프레임 개수의 10%로 결정할 수 있다. 다른 예에 따라, 디바이스(100)는 상대적으로 정밀도가 높은 펜이 호버링 입력 수단인 경우, 변경되는 동영상의 프레임 개수를 전체 프레임 개수의 1%로 결정할 수 있다. On the other hand, the accuracy of the hovering input means 10 can be determined according to the type of the hovering input means 10. The device 100 can determine the unit of performance of the operation corresponding to the precision of the hovering input means 10. [ For example, when the relatively low-precision finger is hovering input means, the device 100 can determine the number of frames of the moving image to be changed to be 10% of the total number of frames. According to another example, the device 100 may determine the number of frames of the moving picture to be changed to be 1% of the total number of frames, when the relatively high-precision pen is the hovering input means.

단계 630에서, 디바이스(100)는 복수의 사용자 인터페이스들 중에서, 결정된 수행 단위에 따라 동작에 관한 정보가 표시된 사용자 인터페이스를 선택한다.In step 630, the device 100 selects a user interface among the plurality of user interfaces, in which information on the operation is displayed according to the determined performance unit.

예를 들어, 디바이스(100)는 동영상 재생 어플리케이션 실행 시, 변경되는 프레임의 개수가 전체 프레임 개수의 10%로 결정된 경우, 10% 단위로 분할된 프로세스바가 표시되는 사용자 인터페이스를 선택할 수 있다. 다른 예에 따라 디바이스(100)는 동영상 재생 어플리케이션 실행 시, 변경되는 프레임의 개수가 전체 프레임 개수의 1%로 결정된 경우, 1% 단위로 분할된 프로세스바가 표시되는 사용자 인터페이스를 선택할 수 있다.For example, if the number of changed frames is determined to be 10% of the total number of frames, the device 100 can select a user interface in which the process bar divided by 10% is displayed. According to another example, when the moving image playback application is executed, the device 100 may select a user interface in which a process bar divided by 1% is displayed when the number of changed frames is determined as 1% of the total number of frames.

한편, 전술한 예는 디바이스(100)가 결정된 수행 단위에 따라 동작에 관한 정보가 표시된 사용자 인터페이스를 선택하는 방법을 설명하기 위한 일 예일 뿐, 본 발명이 이에 한정되는 것은 아니다 Meanwhile, the above-described example is only one example for explaining a method for the device 100 to select a user interface displayed with information on the operation in accordance with the determined execution unit, but the present invention is not limited thereto

단계 640에서, 디바이스(100)는 선택된 사용자 인터페이스를 디스플레이 한다. 디바이스(100)는 디스플레이 된 사용자 인터페이스 상에서, 수신한 호버링 입력에 대응되는 동작을 선택할 수 있다.In step 640, the device 100 displays the selected user interface. The device 100 may select, on the displayed user interface, an action corresponding to the received hovering input.

한편, 단계 640은 도 2를 참조하여 전술한 단계 230과 대응될 수 있다. Meanwhile, step 640 may correspond to step 230 described above with reference to FIG.

도 7은 본 발명의 일 실시예에 따라, 동영상 재생 어플리케이션 실행 시 호버링 입력 수단의 유형을 기초로 선택된 동작의 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 설명하기 위한 도면이다. FIG. 7 is a diagram for explaining a user interface in which information on an operation is displayed according to an execution unit of an operation selected based on a type of hovering input means when a moving image playback application is executed according to an embodiment of the present invention;

도 7의 (a)를 참조하면, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득할 수 있다. 디바이스(100)는 획득한 호버링 입력 수단의 유형에 관한 정보를 기초로, 호버링 입력 수단이 손가락(710)임을 확인할 수 있다. Referring to Figure 7 (a), the device 100 may obtain information about the type of hovering input means that sends the hovering input to the device 100. The device 100 can confirm that the hovering input means is the finger 710 based on the acquired information on the type of the hovering input means.

디바이스(100)는 손가락(710)에 대응되는 동영상을 앞으로 빨리 감는 동작의 수행 단위를 결정할 수 있다. 여기에서, 동작의 수행 단위는 동영상을 앞으로 빨리 감는 동작을 수행함에 따라 변경되는 프레임의 양에 따라 결정될 수 있다. The device 100 can determine a unit of performing an operation of fast forwarding a moving image corresponding to the finger 710 in the forward direction. Here, the unit of operation may be determined according to the amount of frames to be changed as the moving image is fast-forwarded.

일 실시예에 따른 디바이스(100)는 손가락의 정밀도에 따라 동영상을 앞으로 빨리 감는 동작의 수행 단위를 결정할 수 있다. 디바이스(100)는 미리 저장된 데이터 베이스로부터 손가락이 호버링 입력 수단인 경우, 동영상을 앞으로 빨리 감는 동작의 수행 단위에 관한 정보를 결정할 수 있다. 도 7의 (a)에서, 디바이스(100)는 손가락이 호버링 입력 수단인 경우, 변경되는 동영상의 프레임 개수의 단위를 전체 프레임 개수의 10%로 결정할 수 있다. The device 100 according to an exemplary embodiment can determine a unit of performing an operation of fast forward moving a moving image according to the precision of a finger. The device 100 can determine information on a unit of performing an operation of fast forwarding a moving image when a finger is a hovering input means from a database stored in advance. In FIG. 7A, when the finger is a hovering input means, the device 100 can determine the unit of the number of frames of moving images to be changed to be 10% of the total number of frames.

디바이스(100)는 변경되는 프레임의 개수가 전체 프레임 개수의 10%로 결정된 경우, 복수의 사용자 인터페이스들 중에서 10% 단위로 분할된 프로세스바(720)가 표시된 사용자 인터페이스를 선택할 수 있다. If the number of frames to be changed is determined to be 10% of the total number of frames, the device 100 can select a user interface displayed with the process bar 720 divided by 10% of the plurality of user interfaces.

디바이스(100)는 선택된 사용자 인터페이스를 디스플레이 할 수 있다. 또한, 디바이스(100)는 사용자 인터페이스 상에서 손가락에 대응되는 위치에 표시된 프레임으로 재생되는 프레임을 변경할 수 있다. 예를 들어, 사용자 인터페이스 상에서, 손가락의 위치가 50%라고 표시된 이미지에 대응되는 경우, 디바이스(100)는 재생되는 프레임을 전체 프레임들 중에서 50%에 해당하는 위치의 프레임으로 변경할 수 있다.The device 100 may display the selected user interface. Further, the device 100 can change the frame reproduced in the frame displayed at the position corresponding to the finger on the user interface. For example, on the user interface, if the position of the finger corresponds to an image marked 50%, the device 100 may change the frame being reproduced to a frame at a position corresponding to 50% of the total frames.

도 7의 (b)를 참조하면, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득할 수 있다. 디바이스(100)는 획득한 호버링 입력 수단의 유형에 관한 정보를 기초로, 호버링 입력 수단이 펜(730)임을 확인할 수 있다. Referring to FIG. 7 (b), the device 100 may obtain information about the type of hovering input means that sends the hovering input to the device 100. The device 100 can confirm that the hovering input means is the pen 730 based on the acquired information about the type of the hovering input means.

디바이스(100)는 펜(730)에 대응되는 동영상을 앞으로 빨리 감는 동작의 수행 단위를 결정할 수 있다. 여기에서, 동작의 수행 단위는 동영상을 앞으로 빨리 감는 동작을 수행함에 따라 변경되는 프레임의 양에 따라 결정될 수 있다. The device 100 can determine a unit of performing an operation of fast forwarding a moving picture corresponding to the pen 730 in the forward direction. Here, the unit of operation may be determined according to the amount of frames to be changed as the moving image is fast-forwarded.

일 실시예에 따른 디바이스(100)는 펜(730)의 정밀도에 따라 동영상을 앞으로 빨리 감는 동작의 수행 단위를 결정할 수 있다. 디바이스(100)는 미리 저장된 데이터 베이스로부터 펜이 호버링 입력 수단인 경우, 동영상을 앞으로 빨리 감는 동작의 수행 단위에 관한 정보를 획득할 수 있다. 도 7의 (b)에서, 디바이스(100)는 펜이 호버링 입력 수단인 경우, 변경되는 동영상의 프레임 개수의 단위를 전체 프레임 개수의 1%로 결정할 수 있다. The device 100 according to one embodiment can determine a unit of performing an operation of fast forward moving a moving image according to the precision of the pen 730. The device 100 can acquire information on a unit of performing an operation of fast forwarding a moving image in the case where the pen is hovering input means from a previously stored database. 7B, when the pen is a hovering input means, the device 100 can determine the unit of the number of frames of moving images to be changed to be 1% of the total number of frames.

디바이스(100)는 변경되는 프레임의 개수가 전체 프레임 개수의 1%로 결정된 경우, 복수의 사용자 인터페이스들 중에서 1% 단위로 분할된 프로세스바(740)가 표시된 사용자 인터페이스를 선택할 수 있다. If the number of frames to be changed is determined to be 1% of the total number of frames, the device 100 can select a user interface displayed with the process bar 740 divided by 1% of the plurality of user interfaces.

디바이스(100)는 선택된 사용자 인터페이스를 디스플레이 할 수 있다. 또한, 디바이스(100)는 사용자 인터페이스 상에서 손가락에 대응되는 위치에 표시된 프레임으로 재생되는 프레임을 변경할 수 있다. 예를 들어, 사용자 인터페이스 상에서, 손가락의 위치가 4%라고 표시된 이미지에 대응되는 경우, 디바이스(100)는 재생되는 프레임을 전체 프레임들 중에서 4%에 해당하는 위치의 프레임으로 변경할 수 있다.The device 100 may display the selected user interface. Further, the device 100 can change the frame reproduced in the frame displayed at the position corresponding to the finger on the user interface. For example, on the user interface, if the position of the finger corresponds to an image labeled 4%, the device 100 may change the frame being reproduced to a frame at a position corresponding to 4% of the total frames.

도 8A 및 8B는 본 발명의 일 실시예에 따라, 사진 폴더 어플리케이션 실행 시 호버링 입력 수단의 유형을 기초로 선택된 동작의 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 설명하기 위한 도면이다. 8A and 8B are diagrams for explaining a user interface in which information on an operation is displayed according to an execution unit of an operation selected based on a type of a hovering input means when a photo folder application is executed according to an embodiment of the present invention.

도 8A를 참조하면, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득할 수 있다. 디바이스(100)는 획득한 호버링 입력 수단의 유형에 관한 정보를 기초로, 호버링 입력 수단이 손가락(810)임을 확인할 수 있다.  Referring to FIG. 8A, the device 100 may obtain information about the type of hovering input means that sends the hovering input to the device 100. The device 100 can confirm that the hovering input means is the finger 810 based on the obtained information on the type of the hovering input means.

디바이스(100)는 손가락(810)에 대응되는 사진을 탐색하는 동작의 수행 단위를 결정할 수 있다. 여기에서, 동작의 수행 단위는 사진을 탐색하는 동작을 수행함에 따라 화면에 표시되는 사진의 수에 따라 결정될 수 있다. The device 100 may determine a unit of operation of searching for a picture corresponding to the finger 810. [ Here, the unit of performing an action may be determined according to the number of pictures displayed on the screen by performing an operation of searching for a picture.

일 실시예에 따른 디바이스(100)는 손가락(810)의 정밀도에 따라 사진을 탐색하는 동작의 수행 단위를 결정할 수 있다. 디바이스(100)는 미리 저장된 데이터 베이스로부터 손가락이 호버링 입력 수단인 경우, 사진을 탐색하는 동작의 수행 단위에 관한 정보를 결정할 수 있다. 디바이스(100)는 손가락(810)의 정밀도에 따라, 사진을 탐색하는 동작이 수행되는 경우, 출력되는 사진의 개수를 선택할 수 있는 수행 단위의 종류를 3개로 결정할 수 있다. 도 8의 (a)에서, 디바이스(100)는 디바이스(100)와 손가락(810)간의 거리가 D1인 경우, n개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. 또한, 디바이스(100)는 디바이스(100)와 손가락(810)간의 거리가 D3인 경우, n/3개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. 디바이스(100)는 디바이스와 손가락(810)간의 거리가 D5인 경우, n/5개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. The device 100 according to one embodiment may determine the unit of action of searching for a photograph according to the precision of the finger 810. [ The device 100 can determine information about the performance unit of the operation of searching for a picture if the finger is a hovering input means from a previously stored database. The device 100 may determine three types of performance units that can select the number of the outputted photographs when an operation of searching for a photograph is performed according to the precision of the finger 810. [ 8A, the device 100 can select a user interface for outputting n photographs when the distance between the device 100 and the finger 810 is D1. In addition, the device 100 can select a user interface for outputting n / 3 pictures when the distance between the device 100 and the finger 810 is D3. The device 100 can select a user interface for outputting n / 5 pictures when the distance between the device and the finger 810 is D5.

도 8B를 참조하면, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득할 수 있다. 디바이스(100)는 획득한 호버링 입력 수단의 유형에 관한 정보를 기초로, 호버링 입력 수단이 펜(820)임을 확인할 수 있다. Referring to FIG. 8B, the device 100 may obtain information about the type of hovering input means that sends the hovering input to the device 100. The device 100 can confirm that the hovering input means is the pen 820 based on the acquired information on the type of the hovering input means.

디바이스(100)는 펜(820)에 대응되는 사진을 탐색하는 동작의 수행 단위를 결정할 수 있다. 여기에서, 동작의 수행 단위는 사진을 탐색하는 동작을 수행함에 따라 화면에 표시되는 사진의 수에 따라 결정될 수 있다. The device 100 can determine the unit of action of searching for a picture corresponding to the pen 820. [ Here, the unit of performing an action may be determined according to the number of pictures displayed on the screen by performing an operation of searching for a picture.

일 실시예에 따른 디바이스(100)는 펜(820)의 정밀도에 따라 사진을 탐색하는 동작의 수행 단위를 결정할 수 있다. 디바이스(100)는 미리 저장된 데이터 베이스로부터 펜(820)이 호버링 입력 수단인 경우, 사진을 탐색하는 동작의 수행 단위에 관한 정보를 결정할 수 있다. The device 100 according to one embodiment may determine the unit of performance of the operation of searching for photographs according to the precision of the pen 820. [ The device 100 may determine information about the performance unit of the operation of searching for a picture if the pen 820 is a hovering input means from a previously stored database.

디바이스(100)는 펜(820)의 정밀도에 따라, 사진을 탐색하는 동작이 수행되는 경우, 출력되는 사진의 개수를 선택할 수 있는 수행 단위의 종류를 3개로 결정할 수 있다. 도 8의 (b)에서, 디바이스(100)는 디바이스(100)와 펜(820)간의 거리가 D1인 경우, n개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. 또한, 디바이스(100)는 디바이스(100)와 펜(820)간의 거리가 D2인 경우, n/2개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. 디바이스(100)는 디바이스와 펜(820)간의 거리가 D3인 경우, n/3개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. 디바이스(100)는 디바이스(100)와 펜(820)간의 거리가 D4인 경우, n/4개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다. 디바이스(100)는 디바이스와 펜(820)간의 거리가 D5인 경우, n/5개의 사진을 출력하는 사용자 인터페이스를 선택할 수 있다.The device 100 may determine three types of performance units that can select the number of photos to be output when an operation of searching for a photograph is performed according to the precision of the pen 820. [ 8B, the device 100 can select a user interface for outputting n photographs when the distance between the device 100 and the pen 820 is D1. In addition, the device 100 can select a user interface for outputting n / 2 photographs when the distance between the device 100 and the pen 820 is D2. The device 100 can select a user interface for outputting n / 3 pictures when the distance between the device and the pen 820 is D3. The device 100 can select a user interface for outputting n / 4 photographs when the distance between the device 100 and the pen 820 is D4. The device 100 can select a user interface for outputting n / 5 pictures when the distance between the device and the pen 820 is D5.

도 9는 본 발명의 일 실시예에 따라 대형 디스플레이를 구비한 디바이스(900)에서 감지되는 호버링 입력에 따라 사용자 인터페이스를 변경하는 방법을 설명하기 위한 도면이다. 9 is a diagram for explaining a method of changing a user interface according to hovering input sensed by a device 900 having a large display according to an embodiment of the present invention.

도 9의 (a)를 참조하면, 디바이스(900)는 호버링 입력 수단(910)이 디바이스(900)의 대형 디스플레이의 일부분에 일정 시간 이상 위치 하는 경우, 대형 디스플레이 상에 출력되는 사용자 인터페이스의 일부를 표시하는 미니맵(920)을 생성할 수 있다. 또한, 디바이스(900)는 호버링 입력 수단(910)이 일정 시간 이상 위치하는 지점과 디바이스(900) 간의 거리 차이에 따라 생성되는 미니맵(920)의 크기를 결정할 수 있다.  9A, a device 900 is a device 900 that, when the hovering input means 910 is located over a portion of a large display of the device 900 for a certain period of time, It is possible to generate the mini-map 920 to display. The device 900 may also determine the size of the minimap 920 generated according to the distance between the location where the hovering input means 910 is located over a certain period of time and the device 900.

도 9의 (b)를 참조하면, 디바이스(900)는 호버링 입력 수단(910)과 디바이스(900)간의 거리에 따라, 미니맵(920)에 표시되는 사용자 인터페이스의 일부분을 변경할 수 있다. 예를 들어, 디바이스(900)는 호버링 입력 수단(910)이 디바이스(900)로부터 D1의 거리에 위치하는 경우, 현재 표시된 사용자 인터페이스의 일부분으로부터 좌측 상단으로 10cm 이동시킨 사용자 인터페이스의 일부분을 미니맵(920)에 표시할 수 있다. 또한, 디바이스(900)는 호버링 입력 수단(910)이 디바이스(900)로부터 D2의 거리에 위치하는 경우, 현재 표시된 사용자 인터페이스의 일부분으로부터 좌측 상단으로 20cm 이동시킨 사용자 인터페이스의 일부분을 미니맵(920)에 표시할 수 있다. 9B, the device 900 may change a portion of the UI displayed on the mini-map 920 according to the distance between the hovering input means 910 and the device 900. [ For example, if the hovering input means 910 is located at a distance of D1 from the device 900, the device 900 may transmit a portion of the user interface that has moved 10 cm from the portion of the currently displayed user interface to the upper left side, 920). The device 900 also receives a portion of the user interface that has moved 20 centimeters from the portion of the currently displayed user interface to the top left corner of the mini-map 920 when the hovering input means 910 is located at a distance of D2 from the device 900. [ Can be displayed.

한편, 미니맵(920)의 이동 거리가 변경되는 단위는 호버링 입력 수단(910)의 유형에 따라 결정될 수 있다. 예를 들어, 호버링 입력 수단(910)이 손가락인 경우, 디바이스(100)는 손가락과 디바이스(900)간의 거리 차이에 따라 미니맵(920)이 이동하는 거리를 10cm씩 변경할 수 있다. 한편, 다른 예에 따라, 호버링 입력 수단(910)이 펜인 경우, 디바이스(900)는 펜과 디바이스(900)간의 거리 차이에 따라 미니맵(920)이 이동하는 거리를 5cm씩 변경할 수 있다. On the other hand, the unit in which the moving distance of the mini-map 920 is changed may be determined according to the type of the hovering input means 910. For example, when the hovering input means 910 is a finger, the device 100 may change the distance the mini-map 920 moves by 10 cm according to the distance difference between the finger and the device 900. On the other hand, according to another example, when the hovering input means 910 is a pen, the device 900 can change the distance by which the mini map 920 moves by 5 cm according to the distance difference between the pen and the device 900.

본 발명의 일 실시예에 따른 디바이스(900)는 미니맵(920) 이외에도, 호버링 입력에 따라 화면에 표시되는 마우스 포인터 또는 커서가 이동하는 거리를 결정할 수 있다. In addition to the mini-map 920, the device 900 according to an exemplary embodiment of the present invention may determine a moving distance of a mouse pointer or a cursor displayed on a screen according to a hovering input.

도 10은 본 발명의 일 실시예에 따라 디바이스(100)에서 어플리케이션 실행 시 호버링 입력 수단의 유형에 대응되는 동작들에 관한 정보를 출력하는 사용자 인터페이스를 디스플레이 하는 방법을 설명하기 위한 흐름도이다. 10 is a flowchart illustrating a method of displaying a user interface that outputs information on operations corresponding to the type of hovering input means when an application is executed in the device 100 according to an embodiment of the present invention.

단계 1010에서, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단(10)의 유형에 관한 정보를 획득한다. At step 1010, the device 100 obtains information about the type of hovering input means 10 that sends the hovering input to the device 100.

한편, 단계 1010은 도 2를 참조하여 전술한 단계 210과 대응될 수 있다.On the other hand, step 1010 may correspond to step 210 described above with reference to FIG.

단계 1020에서, 디바이스(100)는 호버링 입력 수단의 유형에 대응되는 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택할 수 있다. 여기에서, 호버링 입력 수단의 유형에 대응되는 동작은 동작을 수행하는데 필요한 호버링 입력이 호버링 입력 수단에 의해 송신될 수 있는지 여부에 따라 결정될 수 있다. In step 1020, the device 100 may select a user interface from which information about the operation corresponding to the type of hovering input means is output. Here, the operation corresponding to the type of the hovering input means can be determined depending on whether or not the hovering input necessary for performing the operation can be transmitted by the hovering input means.

예를 들어, 디바이스(100)에서 메모 어플리케이션이 실행됨에 따라 텍스트를 기록하는 동작을 수행하는 경우, 텍스트를 정확하게 기록하기 위해서는 호버링 입력 수단의 정밀도가 높아야 한다. 따라서, 텍스트를 기록하는 동작은 정밀도가 높은 펜과 대응될 수 있다. 디바이스(100)는 문서 작성 어플리케이션 실행 시, 펜이 호버링 입력으로 감지되는 경우에는 텍스트를 기록하는 동작에 관한 정보가 출력된 사용자 인터페이스를 선택할 수 있다. For example, when the device 100 performs the operation of writing a text as the memo application is executed, the accuracy of the hovering input means must be high in order to accurately record the text. Therefore, the operation of writing text can be matched with a pen with high precision. The device 100 can select a user interface for outputting information on the operation of writing text when the pen is detected as a hovering input when executing a document creation application.

한편, 이전에 작성한 문서들 중에서 어느 하나를 선택하는 동작은 입력 수단의 정밀도가 높지 않아도 수행될 수 있다. 디바이스(100)는 문서들 중 어느 하나를 선택하는 동작을 정밀도가 낮은 손가락과 대응시킬 수 있다. 디바이스(100)는 문서 작성 어플리케이션 실행 시, 손가락이 호버링 입력으로 감지되는 경우에는 문서들 중 어느 하나를 선택하는 동작에 관한 정보가 출력된 사용자 인터페이스를 선택할 수 있다.On the other hand, the operation of selecting any one of the previously created documents can be performed even if the precision of the input means is not high. The device 100 can match the operation of selecting any one of the documents with a finger having a low precision. The device 100 can select a user interface to which information about an operation of selecting one of the documents is output when a finger is detected as a hovering input when executing a document creation application.

단계 1030에서, 디바이스(100)는 선택된 사용자 인터페이스를 디스플레이 한다. 디바이스(100)는 디스플레이 된 사용자 인터페이스 상에서, 수신한 호버링 입력에 대응되는 동작을 선택할 수 있다. At step 1030, the device 100 displays the selected user interface. The device 100 may select, on the displayed user interface, an action corresponding to the received hovering input.

한편, 단계 1030은 도 2를 참조하여 전술한 단계 230과 대응될 수 있다. On the other hand, the step 1030 may correspond to the step 230 described above with reference to FIG.

도 11은 본 발명의 일 실시예에 따라 문서 작성 어플리케이션이 실행되는 경우, 디바이스(100)가 호버링 입력 수단의 유형에 따라 사용자 인터페이스를 선택하는 방법을 설명하기 위한 도면이다. 11 is a diagram for explaining a method in which a device 100 selects a user interface according to the type of hovering input means when a document creation application is executed according to an embodiment of the present invention.

도 11의 (a)를 참조하면, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득할 수 있다. 디바이스(100)는 획득한 호버링 입력 수단의 유형에 관한 정보를 기초로, 호버링 입력 수단이 손가락(1110)임을 확인할 수 있다. Referring to Figure 11 (a), the device 100 may obtain information about the type of hovering input means that sends the hovering input to the device 100. The device 100 can confirm that the hovering input means is the finger 1110 based on the acquired information on the type of the hovering input means.

본 발명의 일 실시예에 따른 디바이스(100)는 호버링 입력 수단의 유형에 대응되는 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택할 수 있다. 여기에서, 호버링 입력 수단의 유형에 대응되는 동작은 동작을 수행하는데 필요한 호버링 입력이 호버링 입력 수단으로부터 송신될 수 있는지 여부에 따라 결정될 수 있다. The device 100 according to an exemplary embodiment of the present invention may select a user interface on which information related to an operation corresponding to the type of hovering input means is output. Here, the operation corresponding to the type of the hovering input means can be determined depending on whether or not the hovering input necessary for performing the operation can be transmitted from the hovering input means.

예를 들어, 펜(1110)에 대응되는 동작들에는 수식을 입력하는 동작, 텍스트를 입력하는 동작, 도형을 그리는 동작 등이 포함될 수 있다. 전술한 동작들은 높은 정밀도가 필요한 동작들로서, 정밀도가 높은 호버링 입력 수단인 펜(1110)으로부터 호버링 입력이 디바이스(100)에 송신될 수 있다.For example, the operations corresponding to the pen 1110 may include an operation of inputting a formula, an operation of inputting text, an operation of drawing a figure, and the like. The above-described operations are operations requiring high precision, and a hovering input can be transmitted to the device 100 from the pen 1110, which is a high-precision hovering input means.

본 발명의 일 실시예에 따른 디바이스(100)의 화면 상에 펜(1110)이 감지되는 경우, 디바이스(100)는 수식을 입력하는 동작, 텍스트를 입력하는 동작, 도형을 그리는 동작 각각을 나타내는 아이콘을 출력하는 사용자 인터페이스(1120)를 디스플레이 할 수 있다. When a pen 1110 is sensed on the screen of the device 100 according to an embodiment of the present invention, the device 100 displays an icon representing an operation of inputting a formula, an operation of inputting text, The user interface 1120 can be displayed.

도 11의 (b)를 참조하면, 디바이스(100)는 디바이스(100)에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득할 수 있다. 디바이스(100)는 획득한 호버링 입력 수단의 유형에 관한 정보를 기초로, 호버링 입력 수단이 손가락(1130)임을 확인할 수 있다. Referring to FIG. 11 (b), the device 100 may obtain information about the type of hovering input means that sends the hovering input to the device 100. The device 100 can confirm that the hovering input means is the finger 1130 based on the acquired information on the type of the hovering input means.

본 발명의 일 실시예에 따른 디바이스(100)는 호버링 입력 수단의 유형에 대응되는 동작에 관한 정보가 출력되는 사용자 인터페이스(1140)를 선택할 수 있다. 예를 들어, 손가락(1130)에 대응되는 동작들에는 복수의 문서들 중 어느 하나를 선택하는 동작, 텍스트 입력의 실행을 취소하는 동작 등이 포함될 수 있다. 전술한 동작들은 높은 정밀도를 필요로 하지 않는 동작들로서, 정밀도가 낮은 호버링 입력 수단인 손가락(1130)으로부터 호버링 입력이 디바이스(100)에 송신될 수 있다.The device 100 according to an exemplary embodiment of the present invention may select the user interface 1140 from which information relating to the operation corresponding to the type of the hovering input means is output. For example, the operations corresponding to the finger 1130 may include an operation of selecting one of a plurality of documents, an operation of canceling execution of a text input, and the like. The above-described operations are operations that do not require high precision, and a hovering input can be transmitted to the device 100 from a finger 1130, which is a less precise hovering input means.

본 발명의 일 실시예에 따른 디바이스(100)의 화면 상에 손가락(1130)이 감지되는 경우, 디바이스(100)는 복수의 문서들 중 어느 하나를 선택하는 동작, 텍스트 입력의 실행을 취소하는 동작 각각을 나타내는 아이콘을 출력하는 사용자 인터페이스(1140)를 디스플레이 할 수 있다. When a finger 1130 is detected on the screen of the device 100 according to an exemplary embodiment of the present invention, the device 100 may select one of a plurality of documents, cancel an execution of text input And display a user interface 1140 that outputs an icon representing each of them.

도 12는 본 발명의 일 실시예에 따라 디바이스(100)에 대한 호버링 입력 수단의 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정하는 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a method for determining an operation performed when an application is executed according to a slope of hovering input means for a device 100 according to an embodiment of the present invention.

단계 1210에서, 디바이스(100)는 호버링 입력 수단의 일 측면과 다른 측면의 위치 정보를 획득할 수 있다. 예를 들어, 디바이스(100)는 호버링 입력 수단에서 디바이스(100)와의 거리가 가장 가까운 일 측면과 디바이스(100)와의 거리가 가장 먼 다른 측면의 위치 정보를 획득할 수 있다. 다른 예에 따라, 디바이스(100)는 호버링 입력 수단의 임의의 두 개의 측면의 위치 정보를 획득할 수도 있다.In step 1210, the device 100 may obtain location information on one side and on the other side of the hovering input means. For example, the device 100 may acquire positional information of the other side farthest from the device 100 from one side closest to the device 100 at the hovering input means. According to another example, the device 100 may obtain position information of any two sides of the hovering input means.

단계 1220에서, 디바이스(100)는 획득된 위치 정보를 이용하여, 디바이스(100)에 대한 호버링 입력 수단의 기울기를 결정할 수 있다. 예를 들어, 디바이스(100)는 호버링 입력 수단의 일 측면과 다른 측면을 연결한 선과 디바이스(100) 상의 화면간의 각도에 따라 호버링 입력 수단의 기울기가 결정될 수 있다. In step 1220, the device 100 may use the obtained location information to determine the slope of the hovering input means for the device 100. For example, the slope of the hovering input means may be determined according to the angle between the line connecting the one side of the hovering input means and the other side of the hovering input means and the screen on the device 100.

단계 1230에서, 디바이스(100)는 결정된 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정할 수 있다. 예를 들어, 그림 그리기 어플리케이션에서 선을 그리는 동작을 수행하는 경우, 디바이스(100)는 호버링 입력 수단의 기울기에 따라, 선의 두께를 결정할 수 있다. 다른 예에 따라, 그림 그리기 어플리케이션에서 선을 그리는 동작을 수행하는 경우, 디바이스(100)는 호버링 입력 수단의 기울기에 따라, 선의 색상을 결정할 수 있다. 이에 대해서는 도 13을 참조하여 보다 구체적으로 후술하도록 한다.At step 1230, the device 100 may determine an action to be performed upon application execution according to the determined slope. For example, when performing a line drawing operation in a drawing application, the device 100 may determine the thickness of the line according to the slope of the hovering input means. According to another example, when performing a line drawing operation in a drawing application, the device 100 may determine the color of the line according to the slope of the hovering input means. This will be described later in more detail with reference to FIG.

도 13은 본 발명의 일 실시예에 따라 디바이스(100)에 대한 호버링 입력 수단의 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정하는 방법을 설명하기 위한 도면이다.  13 is a diagram for explaining a method for determining an operation performed when an application is executed according to a slope of hovering input means for a device 100 according to an embodiment of the present invention.

도 13의 (a)를 참조하면, 디바이스(100)는 호버링 입력 수단의 일 측면과 다른 측면의 위치 정보를 획득할 수 있다. 디바이스(100)는 호버링 입력 수단에서 디바이스(100)와의 거리가 가장 가까운 일 측면(1320)과 디바이스(100)와의 거리가 가장 먼 다른 측면(1330)의 위치 정보를 획득할 수 있다. Referring to FIG. 13A, the device 100 can obtain positional information of one side and the other side of the hovering input means. The device 100 can acquire positional information of one side 1320 closest to the device 100 at the hovering input means and the other side 1330 farthest from the device 100. [

디바이스(100)는 호버링 입력 수단의 일 측면과 다른 측면을 연결한 선과 디바이스(100) 상의 화면간의 각도(1340)를 이용하여 호버링 입력 수단의 기울기를 결정할 수 있다. The device 100 may determine the slope of the hovering input means using an angle 1340 between a line connecting one side of the hovering input means and the other side and a screen on the device 100. [

도 13의 (b)를 참조하면, 디바이스(100)는 결정된 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정할 수 있다. 디바이스(100)에서, 그림 그리기 어플리케이션에서 선을 그리는 동작을 수행하는 경우, 디바이스(100)는 호버링 입력 수단(1310)의 기울기에 따라, 선의 두께를 결정할 수 있다. Referring to FIG. 13 (b), the device 100 may determine an operation to be performed when an application is executed according to a determined slope. In the device 100, when performing a line drawing operation in a drawing application, the device 100 may determine the thickness of the line according to the slope of the hovering input means 1310.

도 14 및 도 15는 본 발명의 일 실시예에 따른 디바이스(100)의 구성을 설명하기 위한 블록도이다.14 and 15 are block diagrams for explaining the configuration of the device 100 according to an embodiment of the present invention.

도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 센싱부(110), 제어부(120) 및 출력부(130)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 디바이스(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디바이스(100)는 구현될 수 있다.14, the device 100 according to an exemplary embodiment of the present invention may include a sensing unit 110, a control unit 120, and an output unit 130. As shown in FIG. However, not all illustrated components are required. The device 100 may be implemented by more components than the components shown, and the device 100 may be implemented by fewer components.

예를 들어, 도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 센싱부(110), 제어부(120), 출력부(130) 이외에 사용자 입력부(140), 통신부(150), A/V(Audio/Video) 입력부(160), 메모리(170)를 더 포함할 수도 있다. For example, as shown in FIG. 15, the device 100 according to an embodiment of the present invention may include a user input unit 140, a communication unit 130, a control unit 120, and an output unit 130 in addition to the sensing unit 110, An audio / video (A / V) input unit 160, and a memory 170.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

센싱부(110)는, 디바이스에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득한다. 또한 센싱부(110)는 호버링 입력 수단의 일측면과 다른 측면의 위치 정보를 획득할 수 있다. The sensing unit 110 obtains information about the type of hovering input means for transmitting a hovering input to the device. Also, the sensing unit 110 may acquire positional information of one side and the other side of the hovering input means.

센싱부(110)는, 지자기 센서(Magnetic sensor)(141), 가속도 센서(Acceleration sensor)(142), 온/습도 센서(143), 적외선 센서(144), 자이로스코프 센서(145), 위치 센서(예컨대, GPS)(146), 기압 센서(147), 근접 센서(148), 및 RGB 센서(illuminance sensor)(149) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 110 includes a magnetism sensor 141, an acceleration sensor 142, an on / humidity sensor 143, an infrared sensor 144, a gyroscope sensor 145, (GPS) 146, an air pressure sensor 147, a proximity sensor 148, and an RGB sensor (illuminance sensor) 149. However, the present invention is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

제어부(120)는, 통상적으로 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(120)는, 메모리(170)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(140), 출력부(130), 센싱부(110), 통신부(150), A/V 입력부(160) 등을 전반적으로 제어할 수 있다. The control unit 120 typically controls the overall operation of the device 100. For example, the control unit 120 may include a user input unit 140, an output unit 130, a sensing unit 110, a communication unit 150, an A / V input unit 160 ) Can be generally controlled.

제어부(120)는, 획득된 호버링 입력 수단(10)의 유형에 관한 정보를 기초로, 디바이스(100)에서 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들 중에서 어느 하나를 선택한다.The control unit 120 selects any one of a plurality of user interfaces related to the application executed in the device 100 based on the acquired information on the type of the hovering input means 10. [

제어부(120)는 호버링 입력 수단(10)의 유형에 기초하여, 호버링 입력 수단에서 서로 다른 동작에 관한 정보를 식별하여 호버링 입력을 송신할 수 있는 정도를 나타내는 정밀도(resolution)를 결정할 수 있다. 제어부(120)는 결정된 정밀도에 따라, 어플리케이션에서 수행되는 적어도 하나의 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택할 수 있다. The control unit 120 can determine the resolution indicating the degree to which the hovering input means can identify the information about the different operations and transmit the hovering input based on the type of the hovering input means 10. [ The control unit 120 may select a user interface for outputting information on at least one operation performed in the application according to the determined precision.

또한, 제어부(120)는 복수의 사용자 인터페이스들 중에서 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보가 출력되는 위치가 결정된 정밀도에 대응되는 사용자 인터페이스를 선택할 수 있다.In addition, the controller 120 can select a user interface corresponding to the determined accuracy of the position at which the information on the operations that can be performed when the application is executed, among the plurality of user interfaces.

제어부(120)는 결정된 정밀도가 임계값 이상인 경우, 적어도 하나의 동작에 관한 정보가 디바이스(100)의 화면으로부터 호버링 입력 수단(10) 간의 거리 차이에 따라 출력되는 사용자 인터페이스를 선택할 수 있다. The control unit 120 can select a user interface in which information on at least one operation is output according to the difference in distance between the screen of the device 100 and the hovering input means 10 when the determined precision is equal to or greater than the threshold value.

다른 예에 따라 제어부(120)는 어플리케이션 실행 시, 호버링 입력 수단(10)의 유형에 대응되는 동작들에 관한 정보를 표시한 사용자 인터페이스를 우선적으로 선택할 수 있다. According to another example, the control unit 120 may preferentially select a user interface that displays information on the operations corresponding to the type of the hovering input means 10 when the application is executed.

제어부(120)는 호버링 입력 수단의 유형에 기초하여 어플리케이션 실행 시 선택된 동작의 수행 단위를 결정할 수 있다. 제어부(120)는 복수의 사용자 인터페이스들 중에서 결정된 수행 단위에 따라 동작에 관한 정보가 표시되는 사용자 인터페이스를 선택할 수 있다. The control unit 120 can determine the unit of performance of the selected operation upon execution of the application based on the type of the hovering input means. The control unit 120 may select a user interface in which information on the operation is displayed according to the determined execution unit among the plurality of user interfaces.

제어부(120)는 호버링 입력 수단으로부터 수신 가능한 호버링 입력들이 어플리케이션 실행 시 수행 가능한 동작들 각각에 대응되지 않는 경우, 복수의 동작들에 관한 정보를 그룹으로 분류하여 출력한 사용자 인터페이스를 선택할 수 있다.If the hovering inputs that can be received from the hovering input means do not correspond to each of the operations that can be performed when the application is executed, the control unit 120 may classify the information on the plurality of operations into groups and select the output user interface.

다른 예에 따라, 제어부(120)는 센싱부(110)에서 획득된 위치 정보를 이용하여, 디바이스(100)에 대한 호버링 입력 수단(10)의 기울기를 결정할 수 있다. 제어부(120)는 결정된 기울기에 따라 어플리케이션 실행 시 수행되는 동작을 결정할 수 있다. According to another example, the controller 120 may determine the slope of the hovering input means 10 with respect to the device 100, using the position information obtained from the sensing unit 110. [ The controller 120 may determine an operation to be performed when the application is executed according to the determined slope.

출력부(130)는, 제어부(120)에서 선택된 사용자 인터페이스를 디스플레이 하기 위한 것으로, 이에는 디스플레이부(131)와 음향 출력부(132), 진동 모터(133) 등이 포함될 수 있다. The output unit 130 is for displaying a user interface selected by the control unit 120. The output unit 130 may include a display unit 131, an acoustic output unit 132, a vibration motor 133, and the like.

디스플레이부(131)는 디바이스(100)에서 처리되는 정보를 출력한다. 예를 들어, 디스플레이부(131)는, 제어부(120)에서 선택된 사용자 인터페이스를 디스플레이 할 수 있다. 또한, 디스플레이부(131)는 선택된 사용자 인터페이스에 수신되는 호버링 입력에 따라 선택된 동작이 수행된 결과를 출력할 수 있다. The display unit 131 outputs information processed by the device 100. [ For example, the display unit 131 may display a user interface selected by the control unit 120. Also, the display unit 131 may output a result of performing the selected operation according to the hovering input received in the selected user interface.

한편, 디스플레이부(131)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(131)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(131)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(100)의 구현 형태에 따라 디바이스(100)는 디스플레이부(131)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(121)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다. Meanwhile, when the display unit 131 and the touch pad have a layer structure and are configured as a touch screen, the display unit 131 may be used as an input device in addition to the output device. The display unit 131 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display A 3D display, and an electrophoretic display. In addition, the device 100 may include two or more display units 131 according to the implementation of the device 100. At this time, the two or more display units 121 may be arranged to face each other using a hinge.

음향 출력부(132)는 통신부(150)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(132)는 디바이스(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(132)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 132 outputs audio data received from the communication unit 150 or stored in the memory 170. [ Also, the sound output unit 132 outputs sound signals related to the functions (e.g., call signal reception sound, message reception sound, notification sound) performed in the device 100. [ The sound output unit 132 may include a speaker, a buzzer, and the like.

진동 모터(133)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(133)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(133)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 133 can output a vibration signal. For example, the vibration motor 133 may output a vibration signal corresponding to an output of audio data or video data (e.g., a call signal reception tone, a message reception tone, etc.). In addition, the vibration motor 133 may output a vibration signal when a touch is input to the touch screen.

사용자 입력부(140)는, 사용자가 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(140)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 140 means means for the user to input data for controlling the device 100. For example, the user input unit 140 may include a key pad, a dome switch, a touch pad (a contact type capacitance type, a pressure type resistive type, an infrared detection type, a surface ultrasonic wave conduction type, A tension measuring method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

통신부(150)는, 디바이스(100)와 외부 기기(200) 또는 디바이스(100)와 서버(300) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(150)는, 근거리 통신부(151), 이동 통신부(152), 방송 수신부(153)를 포함할 수 있다. The communication unit 150 may include one or more components that allow the device 100 and the external device 200 or the device 100 and the server 300 to communicate with each other. For example, the communication unit 150 may include a short-range communication unit 151, a mobile communication unit 152, and a broadcast reception unit 153.

근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit 151 includes a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a Near Field Communication unit, a WLAN communication unit, a Zigbee communication unit, IrDA, an infrared data association) communication unit, a WFD (Wi-Fi Direct) communication unit, an UWB (ultra wideband) communication unit, an Ant + communication unit, and the like.

이동 통신부(152)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 152 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

방송 수신부(153)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디바이스(100)가 방송 수신부(153)를 포함하지 않을 수도 있다.The broadcast receiving unit 153 receives broadcast signals and / or broadcast-related information from outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The device 100 may not include the broadcast receiving unit 153 according to the embodiment.

통신부(150)는, 생성된 입력 패턴 정보에 대응되는 동작을 수행한 결과를 외부 기기(200)와 공유할 수 있다. 이때, 통신부(150)는 서버(300)를 통해서 입력 패턴 정보에 대응되는 동작을 수행한 결과를 외부 기기(200)에 전송할 수도 있고, 직접 외부 기기(200)에 입력 패턴 정보에 대응되는 동작을 수행한 결과를 전송할 수도 있다. The communication unit 150 may share the result of performing the operation corresponding to the generated input pattern information with the external device 200. [ At this time, the communication unit 150 may transmit the result of performing the operation corresponding to the input pattern information to the external device 200 through the server 300, or may directly transmit the operation corresponding to the input pattern information to the external device 200 The result of the execution can also be transmitted.

통신부(150)는, 외부 기기(200)에서 생성된 입력 패턴 정보에 대응되는 동작을 수행한 결과를 수신할 수 있다. 이때, 통신부(150)는 서버(300)를 통해서 외부 기기(200)의 입력 패턴 정보에 대응되는 동작을 수행한 결과를 외부 기기(200)로부터 수신할 수도 있고, 직접 외부 기기(200)로부터 외부 기기(200)의 입력 패턴 정보에 대응되는 동작을 수행한 결과를 수신할 수도 있다.The communication unit 150 may receive a result of performing an operation corresponding to the input pattern information generated by the external device 200. [ At this time, the communication unit 150 may receive the result of performing the operation corresponding to the input pattern information of the external device 200 through the server 300 from the external device 200, And may receive a result of performing an operation corresponding to the input pattern information of the device 200. [

통신부(150)는, 외부 기기(200)로부터 통화 연결 요청을 수신할 수 있다. The communication unit 150 can receive a call connection request from the external device 200. [

A/V(Audio/Video) 입력부(160)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(161)와 마이크로폰(162) 등이 포함될 수 있다. 카메라(161)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(120) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A / V (Audio / Video) input unit 160 is for inputting an audio signal or a video signal, and may include a camera 161 and a microphone 162. The camera 161 can obtain an image frame such as a still image or a moving image through the image sensor in a video communication mode or a photographing mode. The image captured through the image sensor can be processed through the control unit 120 or a separate image processing unit (not shown).

카메라(161)에서 처리된 화상 프레임은 메모리(170)에 저장되거나 통신부(150)를 통하여 외부로 전송될 수 있다. 카메라(161)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 161 can be stored in the memory 170 or transmitted to the outside through the communication unit 150. [ The camera 161 may be equipped with two or more cameras according to the configuration of the terminal.

마이크로폰(162)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(162)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(162)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 162 receives an external acoustic signal and processes it as electrical voice data. For example, the microphone 162 may receive acoustic signals from an external device or speaker. The microphone 162 may use various noise reduction algorithms to remove noise generated in receiving an external sound signal.

메모리(170)는, 제어부(120)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 복수의 메뉴, 복수의 메뉴 각각에 대응하는 복수의 제 1 계층 서브 메뉴, 복수의 제 1 계층 서브 메뉴 각각에 대응하는 복수의 제 2 계층 서브 메뉴 등)을 저장할 수도 있다. The memory 170 may store a program for processing and controlling the control unit 120 and may store data to be input / output (e.g., a plurality of menus, a plurality of first hierarchical submenus corresponding to each of the plurality of menus, A plurality of second layer submenus corresponding to each of the plurality of first layer submenus, and the like).

메모리(170)는 적어도 하나의 컨텐트에 관한 사용자의 생체 정보 및 상기 사용자의 컨텍스트 정보를 저장할 수 있다. 또한, 메모리(170)는 기준 감정 정보 데이터 베이스를 저장할 수 있다. 메모리(170)는 컨텐트 요약 정보를 저장할 수 있다.The memory 170 may store biometric information of the user regarding at least one content and context information of the user. In addition, the memory 170 may store a reference emotion information database. Memory 170 may store content summary information.

메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스(100)는 인터넷(internet)상에서 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory 170 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , An optical disc, and the like. In addition, the device 100 may operate a web storage or a cloud server that performs a storage function of the memory 170 on the Internet.

메모리(170)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(171), 터치 스크린 모듈(172), 알림 모듈(173) 등으로 분류될 수 있다. The programs stored in the memory 170 may be classified into a plurality of modules according to their functions, for example, a UI module 171, a touch screen module 172, a notification module 173, .

UI 모듈(171)은, 애플리케이션 별로 디바이스(100)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(172)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(120)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(172)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(172)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 171 can provide a specialized UI, a GUI, and the like that are interlocked with the device 100 for each application. The touch screen module 172 senses a touch gesture on the user's touch screen and can transmit information on the touch gesture to the control unit 120. [ The touch screen module 172 according to an embodiment of the present invention can recognize and analyze the touch code. The touch screen module 172 may be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided in or near the touch screen to sense the touch or near touch of the touch screen. An example of a sensor for sensing the touch of the touch screen is a tactile sensor. A tactile sensor is a sensor that detects the contact of a specific object with a degree or more that a person feels. The tactile sensor can detect various information such as the roughness of the contact surface, the rigidity of the contact object, and the temperature of the contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, a proximity sensor is an example of a sensor for sensing the touch of the touch screen.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. The user's touch gestures can include tap, touch & hold, double tap, drag, panning, flick, drag and drop, swipe, and the like.

알림 모듈(173)은 디바이스(100)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디바이스(100)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 및 사용자 입력의 획득 등이 있다. 알림 모듈(173)은 디스플레이부(121)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(122)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(123)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module 173 may generate a signal for notifying the occurrence of an event of the device 100. [ Examples of events that occur in the device 100 include receiving a call signal, receiving a message, inputting a key signal, receiving a schedule notification, and obtaining a user input. The notification module 173 may output a notification signal in the form of a video signal through the display unit 121 or may output a notification signal in the form of an audio signal through the sound output unit 122, It is possible to output a notification signal in the form of a vibration signal.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

본 발명의 일 실시예에 따른 디바이스(100)는, 사용자의 상태를 나타내는 이미지 카드를 생성하고 공유할 수 있는 사용자 인터랙션을 제공한다. The device 100 according to one embodiment of the present invention provides user interaction that can create and share an image card that represents the status of the user.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

100: 디바이스
110: 센싱부
130: 제어부
150: 출력부
100: device
110: sensing unit
130:
150:

Claims (21)

디바이스에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득하는 단계; 및
상기 디바이스에서 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들 중 상기 획득된 호버링 입력 수단의 유형에 관한 정보에 대응하는 사용자 인터페이스를 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
Obtaining information about the type of hovering input means for sending a hovering input to the device; And
Displaying a user interface corresponding to information about a type of the obtained hovering input means among a plurality of user interfaces related to an application executed in the device.
제 1항에 있어서, 상기 디스플레이 하는 단계는,
상기 호버링 입력 수단의 유형에 기초하여, 서로 다른 동작에 관한 정보를 식별할 수 있는 정도를 나타내는 정밀도(resolution)를 결정하는 단계; 및
상기 결정된 정밀도에 따라, 상기 어플리케이션에서 수행되는 적어도 하나의 동작에 관한 정보가 출력되는 사용자 인터페이스를 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
2. The method of claim 1,
Determining, based on the type of the hovering input means, a resolution indicative of the extent to which information about different actions can be identified; And
And displaying a user interface on which information regarding at least one operation performed in the application is output, according to the determined precision.
제 2항에 있어서, 상기 디스플레이 하는 단계는,
상기 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보가 출력되는 위치가 상기 결정된 정밀도에 대응되는 사용자 인터페이스를 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
3. The method of claim 2,
And displaying a user interface corresponding to the determined precision at a location where information about operations that can be performed when the application is executed is output.
제 2항에 있어서, 상기 디스플레이 하는 단계는,
상기 결정된 정밀도가 임계값 이상인 경우, 상기 적어도 하나의 동작에 관한 정보가 상기 디바이스의 화면으로부터 상기 호버링 입력 수단 간의 거리 차이에 따라 출력되는 사용자 인터페이스를 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
3. The method of claim 2,
And displaying a user interface in which information regarding the at least one operation is output according to a distance difference between the screen of the device and the hovering input means when the determined precision is equal to or greater than a threshold value.
제 1항에 있어서, 상기 디스플레이 하는 단계는,
상기 호버링 입력 수단의 유형에 기초하여 상기 어플리케이션 실행 시 선택된 동작의 수행 단위를 결정하는 단계; 및
상기 복수의 사용자 인터페이스들 중에서 상기 결정된 수행 단위에 따라 상기 동작에 관한 정보가 표시되는 사용자 인터페이스를 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
2. The method of claim 1,
Determining an execution unit of an operation selected at the execution of the application based on the type of the hovering input means; And
And displaying a user interface in which information regarding the operation is displayed according to the determined performance unit among the plurality of user interfaces.
제 1항에 있어서, 상기 복수의 사용자 인터페이스들은,
상기 어플리케이션 실행 시 수행되는 동작들을, 상기 동작들 각각을 수행하는데 필요한 호버링 입력 수단의 정밀도에 따라 분류하여 출력한 사용자 인터페이스를 포함하는 디바이스를 제어하는 방법.
2. The apparatus of claim 1,
And a user interface for classifying and outputting operations performed at the time of executing the application according to the precision of the hovering input means necessary to perform each of the operations.
제 1항에 있어서, 상기 디스플레이 하는 단계는,
상기 어플리케이션 실행 시, 상기 호버링 입력 수단의 유형에 대응되는 동작들에 관한 정보를 표시한 사용자 인터페이스를 우선적으로 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
2. The method of claim 1,
Preferentially displaying a user interface displaying information about the operations corresponding to the type of the hovering input means when the application is executed.
제 1항에 있어서, 상기 디스플레이 하는 단계는,
상기 호버링 입력 수단으로부터 수신 가능한 호버링 입력들이 상기 어플리케이션 실행 시 수행 가능한 동작들 각각에 대응되지 않는 경우, 복수의 동작들에 관한 정보를 그룹으로 분류하여 출력한 사용자 인터페이스를 디스플레이 하는 단계를 포함하는 디바이스를 제어하는 방법.
2. The method of claim 1,
And displaying the user interface, wherein the hovering inputs received from the hovering input means are classified into groups and outputted when the hovering inputs that can be received from the hovering input means do not correspond to each of the operations that can be performed when the application is executed. How to control.
제 8항에 있어서, 상기 복수의 사용자 인터페이스들은,
상기 동작들에 관한 정보를 기 설정된 기간 동안 동작이 실행된 횟수 및 상기 동작들 간의 관련도 중 적어도 하나에 따라 그룹으로 분류하여 표시한 사용자 인터페이스를 포함하는 디바이스를 제어하는 방법.
9. The apparatus of claim 8,
And a user interface for classifying and displaying information on the operations in a group according to at least one of the number of times the operation has been performed for a predetermined period and the relation between the operations.
제 1항에 있어서,
상기 호버링 입력 수단의 일측면과 다른 측면의 위치 정보를 획득하는 단계;
상기 획득된 위치 정보를 이용하여, 상기 디바이스에 대한 상기 호버링 입력 수단의 기울기를 결정하는 단계; 및
상기 결정된 기울기에 따라 상기 어플리케이션 실행 시 수행되는 동작을 결정하는 단계를 더 포함하는 디바이스를 제어하는 방법.
The method according to claim 1,
Acquiring positional information of a side of the hovering input means and another side of the hovering input means;
Determining a slope of the hovering input means for the device using the obtained position information; And
And determining an action to be performed upon execution of the application according to the determined slope.
디바이스에 호버링 입력을 송신하는 호버링 입력 수단의 유형에 관한 정보를 획득하는 센싱부;
상기 디바이스에서 실행되는 어플리케이션에 관한 복수의 사용자 인터페이스들 중 상기 획득된 호버링 입력 수단의 유형에 대응되는 사용자 인터페이스가 출력되도록 제어하는 제어부; 및
상기 대응되는 사용자 인터페이스를 디스플레이 하는 디스플레이부를 포함하는 디바이스.
A sensing unit for acquiring information about a type of hovering input means for transmitting a hovering input to the device;
A control unit for controlling the output of a user interface corresponding to the type of the obtained hovering input means among a plurality of user interfaces related to an application executed in the device; And
And a display unit for displaying the corresponding user interface.
제 11항에 있어서, 상기 제어부는,
상기 호버링 입력 수단의 유형에 기초하여, 서로 다른 동작에 관한 정보를 식별할 수 있는 정도를 나타내는 정밀도(resolution)를 결정하고, 상기 결정된 정밀도에 따라, 상기 어플리케이션에서 수행되는 적어도 하나의 동작에 관한 정보가 출력되는 사용자 인터페이스를 선택하는 디바이스.
12. The apparatus according to claim 11,
Determining a resolution indicating an extent to which information on different operations can be identified based on the type of the hovering input means, and determining, based on the determined accuracy, information about at least one operation performed in the application Lt; RTI ID = 0.0 > a < / RTI >
제 12항에 있어서, 상기 제어부는,
상기 어플리케이션 실행 시 수행 가능한 동작들에 관한 정보가 출력되는 위치가 상기 결정된 정밀도에 대응되는 사용자 인터페이스를 선택하는 디바이스.
13. The apparatus according to claim 12,
Wherein a position at which information on operations that can be performed when the application is executed is output corresponds to the determined precision.
제 12항에 있어서, 상기 제어부는,
상기 결정된 정밀도가 임계값 이상인 경우, 상기 적어도 하나의 동작에 관한 정보가 상기 디바이스의 화면으로부터 상기 호버링 입력 수단 간의 거리 차이에 따라 출력되는 사용자 인터페이스를 선택하는 디바이스.
13. The apparatus according to claim 12,
And when the determined precision is equal to or greater than a threshold value, information on the at least one operation is output in accordance with a distance difference between the screen of the device and the hovering input means.
제 11항에 있어서, 상기 제어부는,
상기 호버링 입력 수단의 유형에 기초하여 상기 어플리케이션 실행 시 선택된 동작의 수행 단위를 결정하고, 상기 복수의 사용자 인터페이스들 중에서 상기 결정된 수행 단위에 따라 상기 동작에 관한 정보가 표시되는 사용자 인터페이스를 선택하는 디바이스.
12. The apparatus according to claim 11,
A unit for performing a selected operation upon execution of the application based on the type of the hovering input means, and selecting a user interface on which information on the operation is displayed according to the determined execution unit among the plurality of user interfaces.
제 11항에 있어서, 상기 복수의 사용자 인터페이스들은,
상기 어플리케이션 실행 시 수행되는 동작들을, 상기 동작들 각각을 수행하는데 필요한 호버링 입력 수단의 정밀도에 따라 분류하여 출력한 사용자 인터페이스를 포함하는 디바이스.
12. The method of claim 11,
And a user interface for classifying and outputting operations performed at the time of executing the application according to the precision of the hovering input means necessary to perform each of the operations.
제 11항에 있어서, 상기 제어부는,
상기 어플리케이션 실행 시, 상기 호버링 입력 수단의 유형에 대응되는 동작들에 관한 정보를 표시한 사용자 인터페이스를 우선적으로 선택하는 디바이스.
12. The apparatus according to claim 11,
Wherein when the application is executed, the user interface preferentially selects a user interface displaying information on operations corresponding to the type of the hovering input means.
제 11항에 있어서, 상기 제어부는,
상기 호버링 입력 수단으로부터 수신 가능한 호버링 입력들이 상기 어플리케이션 실행 시 수행 가능한 동작들 각각에 대응되지 않는 경우, 복수의 동작들에 관한 정보를 그룹으로 분류하여 출력한 사용자 인터페이스를 선택하는 디바이스.
12. The apparatus according to claim 11,
Wherein the device classifies the information related to the plurality of operations into groups and outputs the output when hovering inputs receivable from the hovering input unit do not correspond to each of the operations that can be performed when the application is executed.
제 18항에 있어서, 상기 복수의 사용자 인터페이스들은,
상기 동작들에 관한 정보를 기 설정된 기간 동안 동작이 실행된 횟수 및 상기 동작들 간의 관련도 중 적어도 하나에 따라 그룹으로 분류하여 표시한 사용자 인터페이스를 포함하는 디바이스.
19. The apparatus of claim 18,
And a user interface for classifying and displaying information on the operations in a group according to at least one of the number of times the operation has been performed for a predetermined period and the relation between the operations.
제 11항에 있어서, 상기 센싱부는,
상기 호버링 입력 수단의 일측면과 다른 측면의 위치 정보를 획득하고,
상기 제어부는,
상기 획득된 위치 정보를 이용하여, 상기 디바이스에 대한 상기 호버링 입력 수단의 기울기를 결정하고, 상기 결정된 기울기에 따라 상기 어플리케이션 실행 시 수행되는 동작을 결정하는 디바이스.
The apparatus of claim 11, wherein the sensing unit comprises:
Acquiring positional information of one side and the other side of the hovering input means,
Wherein,
Using the acquired location information to determine a slope of the hovering input means for the device and to determine an action to be performed upon execution of the application according to the determined slope.
제 1항 내지 제 10항 중 어느 하나의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for causing a computer to execute the method according to any one of claims 1 to 10.
KR1020150013550A 2014-06-19 2015-01-28 Method for controlling device and the device KR102306535B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/744,440 US10719132B2 (en) 2014-06-19 2015-06-19 Device and method of controlling device
US16/911,848 US20200326786A1 (en) 2014-06-19 2020-06-25 Device and method of controlling device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462014392P 2014-06-19 2014-06-19
US62/014,392 2014-06-19

Publications (2)

Publication Number Publication Date
KR20150146377A true KR20150146377A (en) 2015-12-31
KR102306535B1 KR102306535B1 (en) 2021-09-29

Family

ID=55129070

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150013550A KR102306535B1 (en) 2014-06-19 2015-01-28 Method for controlling device and the device

Country Status (1)

Country Link
KR (1) KR102306535B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200097657A (en) * 2019-02-08 2020-08-19 주식회사 센스톤 System, method and program for controlling device by virtual code, controlled device, and the means for making control signal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
KR20120108656A (en) * 2011-03-25 2012-10-05 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20120133004A (en) * 2011-05-30 2012-12-10 엘지전자 주식회사 Mobile terminal and Method for controlling display thereof
KR20140001362A (en) * 2012-06-26 2014-01-07 한국과학기술원 Method and apparatus for unlocking a user-terminal and a user-terminal comprising the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
KR20120108656A (en) * 2011-03-25 2012-10-05 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20120133004A (en) * 2011-05-30 2012-12-10 엘지전자 주식회사 Mobile terminal and Method for controlling display thereof
KR20140001362A (en) * 2012-06-26 2014-01-07 한국과학기술원 Method and apparatus for unlocking a user-terminal and a user-terminal comprising the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200097657A (en) * 2019-02-08 2020-08-19 주식회사 센스톤 System, method and program for controlling device by virtual code, controlled device, and the means for making control signal

Also Published As

Publication number Publication date
KR102306535B1 (en) 2021-09-29

Similar Documents

Publication Publication Date Title
US11314804B2 (en) Information search method and device and computer readable recording medium thereof
CN108139778B (en) Portable device and screen display method of portable device
TWI410906B (en) Method for guiding route using augmented reality and mobile terminal using the same
EP2701057B1 (en) Information transmission
US20120038668A1 (en) Method for display information and mobile terminal using the same
US9262867B2 (en) Mobile terminal and method of operation
US11513676B2 (en) Method and system for controlling device
US11209930B2 (en) Method of controlling device using various input types and device for performing the method
US20200326786A1 (en) Device and method of controlling device
KR101739388B1 (en) Mobile terminal and method for controlling the same
KR20150082007A (en) Method and device for unlocking
KR20150032068A (en) Method and device for executing a plurality of applications
KR102306535B1 (en) Method for controlling device and the device
KR101750339B1 (en) Method for displaying augmented reality information and mobile terminal using this method
KR102399589B1 (en) Method and apparatus for displaying object and recording medium thereof
CN107111429B (en) Method for displaying object on device and device thereof
US11797104B2 (en) Electronic device and control method of the same
US20240004482A1 (en) Electronic device and control method of the same
KR20120001104A (en) Mobile terminal and image display method thereof
KR20150054559A (en) Electronic Device And Method Of Controlling The Same
KR20110111722A (en) Mobile terminal and message transmitting method for mobile terminal
KR20170031332A (en) Display apparatus having a input limited area accoding to the sftware displayed on the screen and control method thereof
KR20150068668A (en) Mobile terminal and controlling method thereof
KR20150142375A (en) Method and apparatus for displaying contents

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant