KR20160073194A - Mobile terminal, method for operating mobile terminal and recording medium - Google Patents

Mobile terminal, method for operating mobile terminal and recording medium Download PDF

Info

Publication number
KR20160073194A
KR20160073194A KR1020140181678A KR20140181678A KR20160073194A KR 20160073194 A KR20160073194 A KR 20160073194A KR 1020140181678 A KR1020140181678 A KR 1020140181678A KR 20140181678 A KR20140181678 A KR 20140181678A KR 20160073194 A KR20160073194 A KR 20160073194A
Authority
KR
South Korea
Prior art keywords
mobile terminal
mouse
electronic device
gui
movement
Prior art date
Application number
KR1020140181678A
Other languages
Korean (ko)
Other versions
KR101723271B1 (en
Inventor
이재원
전대린
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020140181678A priority Critical patent/KR101723271B1/en
Publication of KR20160073194A publication Critical patent/KR20160073194A/en
Application granted granted Critical
Publication of KR101723271B1 publication Critical patent/KR101723271B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

Disclosed are a mobile terminal, and a method and recording medium for driving the mobile terminal, which remove inconvenience in which a remote control device of an electronic apparatus needs to be separately carried, and which provide convenience regarding the remote control device. A sensor unit detects a motion of a mobile terminal. A display unit displays a graphic user interface (GUI) related to functions of a mouse. A user interface unit detects a user action on the displayed GUI. A control unit generates movement information adapted to control motion of a mouse pointer of an electronic apparatus based on the detected motion, and generates control information adapted to control the electronic apparatus based on the detected user action. A communication unit transmits a signal including at least one of the movement information and the control information to the electronic apparatus.

Description

이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체{Mobile terminal, method for operating mobile terminal and recording medium}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a mobile terminal, a method for driving the mobile terminal,

본 발명은 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체에 관한 것으로, 보다 상세하게는, 주변의 전자장치를 제어할 수 있는 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile terminal, a method for driving the mobile terminal, and a recording medium, and more particularly, to a mobile terminal capable of controlling peripheral electronic devices, .

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. A terminal can be divided into a mobile / portable terminal and a stationary terminal depending on whether the terminal is movable or not. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia device) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having a combination of functions such as photographing or recording of a moving image, reproduction of music or video file, reception of a game, .

나아가, 이동 단말기는 컴퓨터의 기능을 갖는 형태로 구현되어, 네트워크를 통해 애플리케이션(또는 앱)을 다운받고 이를 실행시킬 수 있으며, 실행된 애플리케이션의 제어에 따라 상기 멀티미디어 기능 이외에 다양한 네비게이션, 문서작성기 및 메신저 등의 기능을 수행할 수 있다.Further, the mobile terminal may be implemented in a form having a function of a computer so as to download an application (or an app) through a network and to execute the application. In addition to the multimedia function, various navigation, a document creator, And so on.

본 발명이 이루고자 하는 기술적 과제는 전자장치의 원격제어장치를 별도로 휴대하여야 하는 불편을 제거하면서 원격제어장치의 편의성을 제공할 수 있는 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체를 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention provides a mobile terminal, a method for driving the mobile terminal, and a recording medium capable of providing convenience of a remote control device while eliminating the inconvenience of carrying the remote control device of the electronic device separately have.

본 발명이 이루고자 하는 다른 기술적 과제는 지면과 반드시 맞닿을 필요 없이 공간 상에서 마우스 기능을 제공하는 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체를 제공하는 데 있다.Another object of the present invention is to provide a mobile terminal providing a mouse function in a space, a method for driving the mobile terminal, and a recording medium without necessarily touching the ground.

본 발명이 이루고자 하는 또 다른 기술적 과제는 이동 단말기를 파지한 손에 따라 전자장치를 제어하기 위한 맞춤형 인터페이스를 제공하는 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체를 제공하는 데 있다.According to another aspect of the present invention, there is provided a mobile terminal providing a customized interface for controlling an electronic device according to a hand holding the mobile terminal, a method for driving the mobile terminal, and a recording medium.

본 발명에 이루고자 하는 또 다른 기술적 과제는 전자장치를 제어하기 위한 편리한 인터페이스를 제공하는 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체를 제공하는데 있다.It is another object of the present invention to provide a mobile terminal providing a convenient interface for controlling an electronic device, a method for driving the mobile terminal, and a recording medium.

본 발명이 이루고자 하는 또 다른 기술적 과제는 원격제어장치의 기능을 수행 중에도 이동 단말기의 기능을 제공할 수 있는 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체를 제공하는 데 있다.It is another object of the present invention to provide a mobile terminal, a method for operating the mobile terminal, and a recording medium capable of providing a function of the mobile terminal even while performing the function of the remote control device.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 이동 단말기는, 상기 이동 단말기의 움직임을 감지하는 센서부, 마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이하는 디스플레이부, 상기 디스플레이된 GUI에 대한 사용자 조치를 감지하는 사용자 인터페이스부, 상기 감지된 움직임을 기초로 전자장치의 마우스 포인트의 움직임을 제어하기 위한 이동 정보 및 상기 감지된 사용자 조치를 기초로 상기 전자장치를 제어하기 위한 제어 정보를 생성하는 제어부, 및 상기 전자장치로 상기 이동 정보 및 상기 제어 정보를 중 적어도 하나를 포함하는 신호를 전송하는 통신부를 포함할 수 있다. 여기서, 상기 GUI는 사용자 설정에 따라 변경될 수 있다.According to an aspect of the present invention, there is provided a mobile terminal including a sensor unit for detecting movement of the mobile terminal, a display unit for displaying a graphical user interface (GUI) associated with a mouse function, A control unit for controlling the electronic device on the basis of movement information for controlling the movement of the mouse point of the electronic device based on the detected movement and the detected user action, And a communication unit for transmitting a signal including at least one of the movement information and the control information to the electronic device. Here, the GUI may be changed according to user settings.

상기 제어부는, 호 신호(call signal)를 수신한 경우에는, 상기 전자장치로 상기 호 신호의 수신을 알리기 위한 정보가 전송되도록 제어할 수 있다.The control unit may control to transmit information for informing reception of the call signal to the electronic device when a call signal is received.

상기 제어부는, 문자 메시지를 수신하는 경우에는, 상기 전자장치로 상기 문자 메시지의 수신을 알리기 위한 정보가 전송되도록 제어할 수 있다.When receiving the text message, the control unit may control the electronic device to transmit information for notifying the reception of the text message.

상기 제어부는, 상기 이동 단말기를 잡은 손이 오른손 또는 왼손인지 여부를 확인하고, 상기 확인 결과에 따라 상기 GUI를 변경할 수 있다. 상기 GUI는, 마우스의 우측 버튼과 연관된 영역, 마우스의 좌측 버튼과 연관된 영역 및 마우스의 휠과 연관된 영역 중 적어도 하나를 포함할 수 있고, 상기 제어부는, 상기 확인 결과에 따라 상기 GUI의 동일 지점을 누르는 사용자 조치에 대한 제어 신호를 다르게 생성할 수 있다. 상기 제어부는, 상기 GUI의 제1 지점에서 제2 지점으로 드래깅하는 사용자 조치를 감지한 경우에는, 마우스의 휠의 움직임과 연관된 제어 정보를 생성할 수 있다. 여기서, 상기 확인 결과에 따라 상기 제어 정보를 다르게 생성될 수 있다.The control unit may check whether the hand holding the mobile terminal is a right hand or a left hand, and change the GUI according to the confirmation result. The GUI may include at least one of an area associated with the right button of the mouse, an area associated with the left button of the mouse, and an area associated with the wheel of the mouse, and the control unit may control the same point of the GUI The control signal for the user action to be pressed can be generated differently. The control unit may generate control information associated with movement of a wheel of a mouse when a user action to drag from a first point to a second point of the GUI is sensed. Here, the control information may be generated differently according to the check result.

상기 제어부는, 상기 제1 지점 및 상기 제2 지점이 마우스의 우측 버튼과 연관된 영역에 위치하는 경우에는, 마우스의 휠의 제1 방향으로 움직임과 연관된 제어 정보를 생성하고, 상기 제1 지점 및 상기 제2 지점이 마우스의 좌측 버튼과 연관된 영역에 위치하는 경우에는, 마우스의 휠이 상기 제1 방향의 반대 방향으로 움직임을 지시하는 제어 정보를 생성할 수 있다.Wherein the control unit generates control information associated with movement in a first direction of a wheel of the mouse when the first point and the second point are located in an area associated with a right button of the mouse, When the second point is located in the area associated with the left button of the mouse, the wheel of the mouse can generate control information indicating the movement in the direction opposite to the first direction.

상기 센서부는, 가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 포함할 수 있다.The sensor unit may include at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 이동 단말기는, 센서부, 디스플레이부, 사용자 인터페이스부, 제어부 및 통신부를 포함하는 이동 단말기에 있어서, 적어도 하나의 명령어를 포함하는 프로그램을 저장하는 저장부를 포함하고, 상기 프로그램이 상기 이동 단말기에서 실행된 경우에 상기 적어도 하나의 명령어는, 상기 센서부가 상기 이동 단말기의 움직임을 감지하게 하는 명령어, 상기 디스플레이부가 마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이하게 하는 명령어, 상기 사용자 인터페이스부가 상기 디스플레이된 GUI에 대한 사용자 조치를 감지하게 하는 명령어, 상기 제어부가 상기 감지된 움직임을 기초로 전자장치의 마우스 포인트의 움직임을 제어하기 위한 이동 정보 및 상기 감지된 사용자 조치를 기초로 상기 전자장치를 제어하기 위한 제어 정보를 생성하게 하는 명령어, 상기 통신부가 상기 전자장치로 상기 이동 정보 및 상기 제어 정보를 중 적어도 하나를 포함하는 신호를 전송하게 하는 명령어를 포함할 수 있다.According to another aspect of the present invention, there is provided a mobile terminal including a sensor unit, a display unit, a user interface unit, a control unit, and a communication unit, Wherein the at least one instruction when the program is executed in the mobile terminal comprises instructions for causing the sensor unit to sense movement of the mobile terminal, the display unit comprising a graphical user interface (GUI) associated with a mouse function, A command to cause the user interface unit to detect a user action on the displayed GUI; a controller to control movement of the mouse pointer of the electronic device based on the detected movement; Information and sense Instructions for causing the communication unit to transmit a signal including at least one of the movement information and the control information to the electronic device; can do.

상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 이동 단말기를 구동하기 위한 방법은, 마우스 기능을 구현하는 마우스 애플리케이션을 선택하는 사용자 조치를 감지하는 단계, 상기 사용자 조치 감지에 응답하여, 상기 이동 단말기의 움직임을 감지하는 단계, 상기 감지된 움직임을 기초로 전자장치의 마우스 포인트의 움직임을 제어하기 위한 이동 정보를 생성하는 단계, 및 상기 생성된 이동 정보를 상기 전자장치로 전송하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for driving a mobile terminal, the method comprising: sensing a user action for selecting a mouse application that implements a mouse function; Generating movement information for controlling movement of a mouse point of the electronic device on the basis of the sensed movement, and transmitting the generated movement information to the electronic device can do.

상기 이동 단말기를 구동하기 위한 방법은, 상기 사용자 조치 감지에 응답하여, 마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이하는 단계, 상기 디스플레이된 GUI에 대한 사용자 조치를 감지하는 단계, 상기 감지된 사용자 조치를 기초로 상기 전자장치를 제어하기 위한 제어 정보를 생성하는 단계, 및 상기 전자장치로 상기 제어 정보를 전송하는 단계를 포함할 수 있다.A method for operating a mobile terminal, the method comprising: displaying a graphical user interface (GUI) associated with a mouse function in response to the user action detection; sensing a user action on the displayed GUI; Generating control information for controlling the electronic device based on the detected user action, and transmitting the control information to the electronic device.

상기 이동 단말기를 구동하기 위한 방법은, 상기 이동 단말기를 파지한 손을 확인하는 단계를 더 포함하고, 상기 확인 결과에 따라 상기 GUI는 다르게 디스플레이 될 수 있다.The method for driving the mobile terminal further includes confirming a hand holding the mobile terminal, and the GUI may be displayed differently according to the confirmation result.

상기 이동 단말기를 구동하기 위한 방법은, 호 신호를 수신하는 단계, 및 상기 호 신호의 수신을 알리기 위한 정보를 상기 전자장치로 전송하는 단계를 더 포함할 수 있다.The method for driving the mobile terminal may further include receiving a call signal, and transmitting information to the electronic device to inform receipt of the call signal.

상기 이동 단말기를 구동하기 위한 방법은, 문자 메시지를 수신하는 단계, 및 상기 문자 메시지의 수신을 알리기 위한 정보를 상기 전자장치로 전송하는 단계를 더 포함할 수 있다.The method for driving the mobile terminal may further include receiving a text message, and transmitting information for informing reception of the text message to the electronic device.

본 발명에 따른 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체에 의하면, 이동 단말기를 통해 전자장치를 원격 제어할 수 있는 기능을 수행하도록 함으로써, 사용자에게 원격제어장치를 별도로 휴대할 필요가 없이 원격제어장치 사용의 편리성을 제공할 수 있고, 이동 단말기의 공간 상의 움직임으로 전자장치의 마우스 포인트를 제어할 수 있어, 원격제어장치를 지면에 놓을 수 없는 장소에서도 사용자에게 마우스 사용의 편리성을 제공할 수 있다.According to the mobile terminal, the method for driving the mobile terminal, and the recording medium according to the present invention, the function of remotely controlling the electronic device through the mobile terminal is performed, so that it is unnecessary for the user to carry the remote control device separately It is possible to provide convenience of using the remote control device and to control the mouse point of the electronic device by the movement in the space of the mobile terminal so that the user can easily use the mouse even in a place where the remote control device can not be placed on the ground .

또한, 사용자의 손에 위치를 확인하여, 확인 결과에 따라 맞춤형 사용자 인터페이스를 제공하므로, 사용자는 왼손 및 오른손 중 원하는 손으로 이동 단말기를 파지하여 용이하게 사용할 수 있고, 터치 패널에 대한 사용자의 제스처를 인식하고, 인식 결과에 따라 전자장치를 제어하기 위한 제어 신호를 생성하므로, 사용자는 특정 위치에 한정되지 않고 자유롭게 제스처를 행하여 전자장치를 제어할 수 있으며, 이동 단말기를 호 신호 또는 문자 메시지를 수신한 경우에, 전자장치가 이를 디스플레이 하도록 제어하므로, 마우스 기능을 수행 중에도 이동 단말기의 본연의 기능을 동시에 제공할 수 있다.Further, since the position is confirmed on the user's hand and a personalized user interface is provided according to the confirmation result, the user can easily use the mobile terminal by gripping the desired one of the left hand and the right hand, And generates a control signal for controlling the electronic device according to the recognition result. Thus, the user can freely perform a gesture to control the electronic device without being limited to a specific position, and can control the electronic device by receiving a call signal or a text message In this case, since the electronic device controls the display thereof, it is possible to simultaneously provide the function of the mobile terminal while performing the mouse function.

도 1은 본 발명에 따른 원격 제어 시스템에 대한 바람직한 일실시예의 구성도이다.
도 2는 본 발명에 따른 이동 단말기에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 3a는 본 발명에 따른 이동 단말기의 좌측 측면도 및 우측 측면도의 일례를 도시한 도면이다.
도 3b는 센서부가 검출한 접촉 지점을 도시한 도면이다.
도 4는 본 발명에 따른 원격 제어를 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 일실시예를 도시한 도면이다.
도 5는 본 발명에 따른 원격 제어를 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 다른 실시예를 도시한 도면이다.
도 6은 본 발명에 따른 원격 제어를 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 또 다른 실시예를 도시한 도면이다.
도 7은 원격 제어를 환경을 설정하기 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 일실시예를 도시한 도면이다.
도 8은 전자장치가 디스플레이한 화면의 일예를 도시한 도면이다.
도 9는 전자장치가 디스플레이한 화면의 다른 예를 도시한 도면이다.
도 10은 전자장치가 디스플레이한 화면의 또 다른 예를 도시한 도면이다.
도 11은 본 발명에 따른 이동 단말기를 구동하기 위한 방법에 대한 바람직한 일실시예의 수행과정을 도시한 순서도이다.
1 is a block diagram of a preferred embodiment of a remote control system according to the present invention.
2 is a block diagram showing a configuration of a preferred embodiment of a mobile terminal according to the present invention.
3A is a view showing an example of a left side view and a right side view of a mobile terminal according to the present invention.
3B is a view showing a contact point detected by the sensor section.
FIG. 4 is a diagram illustrating a preferred embodiment of a graphical user interface (GUI) for remote control according to the present invention.
5 is a diagram illustrating another preferred embodiment of a graphical user interface (GUI) for remote control according to the present invention.
6 is a diagram illustrating another preferred embodiment of a graphical user interface (GUI) for remote control according to the present invention.
7 is a diagram showing a preferred embodiment of a graphical user interface (GUI) for setting an environment for remote control.
8 is a diagram showing an example of a screen displayed by the electronic device.
9 is a view showing another example of a screen displayed by the electronic device.
10 is a diagram showing another example of a screen displayed by the electronic device.
FIG. 11 is a flowchart illustrating a method of operating a mobile terminal according to an exemplary embodiment of the present invention. Referring to FIG.

이하에서 첨부된 도면들을 참조하여 본 발명에 따른 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체에 대해 상세하게 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, a mobile terminal, a method for driving the mobile terminal, and a recording medium according to the present invention will be described in detail with reference to the accompanying drawings. The structure and operation of the present invention shown in the drawings and described by the drawings are described as at least one embodiment, and the technical ideas and the core structure and operation of the present invention are not limited thereby.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈"은 단순히 본 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 상기 "모듈"은 컴퓨터 상에서 실행 가능한 프로그램, 애플리케이션, 컴퓨터 상에서 실행 가능한 명령어의 집합을 의미할 수 있다. 애플리케이션은 앱이라고 호칭될 수 있다.The suffix "module" for a component used in the following description is merely given in consideration of the ease of making this specification, and the "module" means a set of instructions executable on a computer, can do. An application can be called an app.

도 1은 본 발명에 따른 원격 제어 시스템에 대한 바람직한 일실시예의 구성도이다.1 is a block diagram of a preferred embodiment of a remote control system according to the present invention.

도 1을 참조하면, 본 발명에 따른 원격 제어 시스템(1)은 전자장치(50) 및 이동 단말기(100)를 포함할 수 있다. Referring to FIG. 1, a remote control system 1 according to the present invention may include an electronic device 50 and a mobile terminal 100.

전자장치(50)는 데스크톱, 랩톱, 태블릿, 미니 컴퓨터, 노트북, 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있고, 내비게이션 또는 IPTV 및 Smart TV 등의 디지털 TV일 수 있다. 전자장치(50)는 이동 단말기(100)로부터 이동 정보, 제어 정보, 호 신호의 수신을 알리는 정보 및 문자 메시지를 알리는 정보 중 적어도 하나를 수신할 수 있다.The electronic device 50 may be a personal computer system such as a desktop, laptop, tablet, minicomputer, notebook, handheld computer, or may be a digital TV, such as navigation or IPTV and Smart TV. The electronic device 50 may receive at least one of movement information, control information, information informing reception of a call signal, and information informing a text message from the mobile terminal 100. [

전자장치(50)는 이동 단말기(100)로부터 이동 정보를 수신하는 경우에는, 수신된 이동 정보를 기초로 전자장치(50)의 마우스 포인트의 위치를 제어할 수 있고, 제어 정보를 수신하는 경우에는, 상기 제어 정보를 기초로 전자장치(50) 내의 구성요소를 제어하거나 특정 기능을 수행할 수 있다.When receiving the movement information from the mobile terminal 100, the electronic device 50 can control the position of the mouse point of the electronic device 50 based on the received movement information, and when receiving the control information , Control components within the electronic device 50 based on the control information, or perform specific functions.

전자장치(50)는 이동 단말기(100)로부터 호 신호의 수신을 알리는 정보를 수신하는 경우에는, 호 신호가 수신되었다는 메시지를 화면에 디스플레이할 수 있다.When the electronic device 50 receives the information informing reception of the call signal from the mobile terminal 100, the electronic device 50 can display a message that the call signal has been received on the screen.

전자장치(50)는 이동 단말기(100)로부터 문자 메시지의 수신을 알리는 정보를 수신하는 경우에는, 문자 메시지가 수신되었다는 메시지를 화면에 디스플레이하거나 문자 메시지의 내용을 디스플레이할 수 있다.When the electronic device 50 receives information indicating reception of a text message from the mobile terminal 100, the electronic device 50 may display a message indicating that the text message has been received on the screen or display the contents of the text message.

이동 단말기(100)는 휴대폰, 스마트 폰(smart phone), 착용형 IT 디바이스(Wearable IT device, 예: 앱의 탑재가 가능한 디지털 워치, 앱의 탑재가 가능한 디지털 안경),노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이터 등이 포함될 수 있다.The mobile terminal 100 may be a mobile phone, a smart phone, a wearable IT device (e.g., a digital watch capable of loading an app, digital glasses capable of loading an app), a laptop computer, A digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigator, and the like.

전자장치(50) 및 이동 단말기(100)는 Wireless LAN(IEEE 802.11b, IEEE 802.11a, IEEE802.11g, IEEE802.11n), WIBro(Wireless Broadband), Wimax 및 HSDPA(High Speed Downlink Packet Access), 블루투스(Bluetooth)를 이용하여 신호 또는 데이터를 송수신할 수 있다.The electronic device 50 and the mobile terminal 100 may be implemented in a wireless LAN (IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n), WIBro (Wireless Broadband), Wimax and HSDPA (High Speed Downlink Packet Access) (Bluetooth) to transmit and receive signals or data.

도 2는 본 발명에 따른 이동 단말기에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.2 is a block diagram showing a configuration of a preferred embodiment of a mobile terminal according to the present invention.

도 2를 참조하면, 이동 단말기(100)는 센서부(110), 제어부(120), 디스플레이부(130), 사용자 인터페이스부(140), 통신부(150) 및 저장부(160)를 포함할 수 있다.2, the mobile terminal 100 may include a sensor unit 110, a control unit 120, a display unit 130, a user interface unit 140, a communication unit 150, and a storage unit 160 have.

센서부(110)는 이동 단말기(100)의 움직임을 감지한다. 센서부(110)는 가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 포함할 수 있다. 가속도 센서는 이동 단말기(100)의 움직임을 감지하여 이동 단말기(100)의 속도를 측정한다. 자이로 센서는 공간 상에서 이동 단말기(100)의 움직이는 방향을 측정한다. 즉, 자이로 센서는 X 축, Y축, Z축 상에서 이동 단말기(100)의 움직이는 방향을 측정한다. 지자기 센서는 지구 자기장을 이용한 나침반으로 방위각을 측정한다. 즉 지자기 센서는 X축, Y축, Z축 방향으로 각각 이동 단말기(100)의 자기장의 강도를 센싱하여 이동 단말기(100)의 방위각을 측정한다.The sensor unit 110 senses the movement of the mobile terminal 100. The sensor unit 110 may include at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor. The acceleration sensor senses the motion of the mobile terminal 100 and measures the speed of the mobile terminal 100. The gyro sensor measures the moving direction of the mobile terminal 100 in space. That is, the gyro sensor measures the moving direction of the mobile terminal 100 on the X-axis, the Y-axis, and the Z-axis. The geomagnetic sensor measures the azimuth using a compass using a geomagnetic field. That is, the geomagnetic sensor measures the azimuth angle of the mobile terminal 100 by sensing the intensity of the magnetic field of the mobile terminal 100 in the X-axis, Y-axis, and Z-axis directions, respectively.

도 3a는 본 발명에 따른 이동 단말기의 좌측 측면도 및 우측 측면도의 일예를 도시한 도면이고, 도 3b는 센서부가 검출한 접촉 지점을 도시한 도면이다.FIG. 3A is a view showing an example of a left side view and a right side view of a mobile terminal according to the present invention, and FIG. 3B is a view showing a contact point detected by a sensor section.

도 3a 및 도 3b를 참조하면, 좌측면도(2210)는 이동 단말기(100)의 좌측면의 일예이고, 우측면도(2220)는 이동 단말기(100)의 우측면의 일예이다. 센서부(110)는 좌측면(2210)에 구비되는 제1 접촉 검출부(2211) 및 우측면(2220)에 구비되는 제2 접촉 검출부(2221)를 포함할 수 있다. 일부 실시예로, 제1 접촉 검출부(2211) 및 제2 접촉 검출부(2221)는 각각 하나의 단일 센서로 이동 단말기(100)의 양측면에 구비될 수 있다. 이 경우, 제1 접촉 검출부(2211) 및 제2 접촉 검출부(2221)는 다수의 터치 지점을 검출하는 멀티 터치 센서로 구현될 수 있고, 센서부(110)를 터치하는 하나 이상의 터치 지점의 좌표 또는 개수 등을 검출할 수 있다.3A and 3B, a left side view 2210 is an example of a left side view of the mobile terminal 100, and a right side view 2220 is an example of a right side view of the mobile terminal 100. FIG. The sensor unit 110 may include a first contact detection unit 2211 provided on the left side surface 2210 and a second contact detection unit 2221 provided on the right side surface 2220. In some embodiments, the first contact detection unit 2211 and the second contact detection unit 2221 may be provided on both sides of the mobile terminal 100 as a single sensor. In this case, the first touch detection unit 2211 and the second touch detection unit 2221 may be implemented as a multi-touch sensor that detects a plurality of touch points, and may be a coordinate of one or more touch points touching the sensor unit 110, And the like can be detected.

사용자가 왼손 또는 오른손으로 이동 단말기(100)를 파지하면, 제1 접촉 검출부(2211) 및 제2 접촉 검출부(2221)는 각각 손이 접촉되는 지점의 좌표 또는 개수 등을 검출한다.When the user grasps the mobile terminal 100 with his or her left or right hand, the first contact detection unit 2211 and the second contact detection unit 2221 detect the coordinates or the number of the points at which the hand touches each other.

사용자가 오른손을 이용하여 이동 단말기(100)를 파지한 경우에는, 센서부(110)는 도 3b와 같이 접촉 지점을 검출할 수 있다. 제1 접촉 검출부(2211)는 다수의 접촉 지점(2510, 2520, 2530)을 검출할 수 있다. 여기서 접촉 지점(2510, 2520, 2530)은 각각 오른손의 검지, 중지, 약지 손가락에 의한 터치에 대응될 수 있다. 또한 사용자의 파지하는 방법의 차이에 따라, 제1 접촉 검출부(2211)는 세 개의 접촉 지점이 아닌 네 개의 접촉 지점을 검출할 수도 있다.When the user grasps the mobile terminal 100 using the right hand, the sensor unit 110 can detect a contact point as shown in FIG. 3B. The first contact detection unit 2211 can detect a plurality of contact points 2510, 2520, and 2530. Here, the touch points 2510, 2520, and 2530 may correspond to the touch of the right hand, the stop, and the finger of the right finger, respectively. Also, according to the difference in the method of grasping the user, the first contact detecting portion 2211 may detect four contact points rather than three contact points.

제2 접촉 검출부(2221)는 다수의 접촉 지점(2550, 2560)을 검출할 수 있다. 여기서 접촉 지점(2550, 2560)은 각각 사용자의 파지하는 손의 엄지 및 손바닥 중 엄지 손가락의 아래 부분에 위치한 부위에 의한 터치에 대응될 수 있다.The second contact detecting portion 2221 can detect a plurality of contact points 2550 and 2560. Here, the touch points 2550 and 2560 may correspond to the touch by the part of the palm of the hand held by the user and the lower part of the thumb, respectively.

제어부(120)는 검출된 접촉 지점을 이용하여 이동 단말기(100)를 파지하는 손을 확인할 수 있다. 여기서 제어부(120)는 접촉 지점의 개수를 기초로 파지하는 손을 확인할 수 있다. 일예로, 제1 접촉 검출부(2211)가 검출한 접촉 지점의 개수와 제2 접촉 검출부(2221)가 검출한 접촉 지점의 개수를 비교하여, 제어부(120)는 보다 적은 접촉 지점을 검출한 쪽의 손을 파지하는 손으로 확인할 수 있다. 도 3b에서와 같이 제2 접촉 검출부(2221)가 적은 개수의 접촉 지점을 검출하였으므로, 제어부(120)는 사용자가 이동 단말기(100)를 파지한 손이 오른손이라고 확인할 수 있다.The control unit 120 can confirm the hand holding the mobile terminal 100 using the detected contact point. Here, the control unit 120 can identify the hand to grasp based on the number of contact points. For example, the controller 120 compares the number of contact points detected by the first contact detecting unit 2211 with the number of contact points detected by the second contact detecting unit 2221, It can be confirmed by the hand holding the hand. As shown in FIG. 3B, since the second contact detecting unit 2221 detects a small number of contact points, the controller 120 can confirm that the hand held by the user of the mobile terminal 100 is the right hand.

또한 제어부(120)는 접촉 지점의 면적을 기초로 파지한 손을 확인할 수 있다. 예를 들면, 제어부(120)는 큰 접촉 지점을 검출한 쪽의 손을 파지하는 손으로 확인할 수 있다. 이동 단말기(100)를 오른손으로 파지하는 경우에는, 제2 접촉 검출부(2221)가 큰 접촉 지점(2560)을 검출하였으므로, 제어부(120)는 사용자가 이동 단말기(100)를 파지한 손이 오른손이라고 확인할 수 있다.Also, the control unit 120 can confirm the hand gripped based on the area of the contact point. For example, the control unit 120 can confirm the hand by gripping the hand which detects the large contact point. When the mobile terminal 100 is grasped by the right hand, since the second contact detection unit 2221 detects a large contact point 2560, the control unit 120 determines that the hand held by the user of the mobile terminal 100 is the right hand Can be confirmed.

센서부(110)는 근접 센서를 더 포함할 수 있다. 근접 센서는 특정 물체의 접근 여부를 센싱한다.The sensor unit 110 may further include a proximity sensor. The proximity sensor senses whether or not a specific object is approaching.

제어부(120)는 명령을 실행하고 이동 단말기(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(160)로부터 검색된 명령어를 사용하여, 제어부(120)는 이동 단말기(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다.The control unit 120 executes an instruction and performs an operation associated with the mobile terminal 100. [ For example, using the instruction retrieved from the storage unit 160, the control unit 120 can control input and output between the components of the mobile terminal 100, and reception and processing of data.

제어부(120)는 운영 체제와 함께 프로그램 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, LINUX, Palm OS, DOS, 안드로이드(Android), iOS 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(120)와 연결되어 동작하는 저장부(160) 내에 존재할 수 있다. 상기 프로그램 코드는 소스 코드 생성 모듈 및 실행 코드 생성 모듈일 수 있다.The control unit 120 executes the program code together with the operating system and generates and uses data. The operating system is generally known and will not be described in more detail. By way of example, the operating system may be a Windows-based OS, Unix, LINUX, Palm OS, DOS, Android, iOS and Macintosh. An operating system, other computer code, and data may reside in the storage 160 operating in conjunction with the controller 120. [ The program code may be a source code generation module and an execution code generation module.

제어부(120)는 사용자 인터페이스부(140)가 감지한 사용자 조치를 실행 가능한 적어도 하나의 명령어로 해석할 수 있고 해석한 적어도 하나의 명령어에 따라, 이동 단말기(100)의 내부 구성요소를 제어할 수 있다.The control unit 120 can interpret the user action detected by the user interface unit 140 as at least one executable instruction and control the internal components of the mobile terminal 100 according to at least one interpreted instruction have.

제어부(120)는 센서부(110)가 감지한 이동 단말기(100)의 움직임을 기초로 전자장치(50)의 마우스 포인트의 움직임을 제어하기 위한 이동 정보를 산출하고, 사용자 인터페이스부(140)가 감지한 사용자 조치를 기초로 전자장치(50)를 제어하기 위한 제어 정보를 생성할 수 있다. 여기서 사용자 조치는 이동 단말기 또는 리모컨의 물리적인 버튼의 선택, 터치스크린 디스플레이면상의 소정의 터치 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 공간 제스처의 실시 및 음성 감지부가 수신한 음성에 대한 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 또한 제어부(120)는 이동 단말기(100)의 상하 방향의 움직임을 기초로 전자장치(50)의 마우스 포인트의 수직 방향을 제어하기 위한 이동 정보를 산출할 수 있고, 이동 단말기(100)의 좌우 방향의 움직임을 기초로 전자장치(50)의 마우스 포인트의 좌우 방향을 제어하기 위한 이동 정보를 산출할 수 있다.The control unit 120 calculates movement information for controlling the movement of the mouse point of the electronic device 50 based on the movement of the mobile terminal 100 sensed by the sensor unit 110 and the user interface unit 140 And generate control information for controlling the electronic device 50 based on the detected user action. Wherein the user action includes selecting a physical button on the mobile terminal or remote control, performing a predetermined touch gesture on the touch screen display surface or selecting a soft button, performing a predetermined spatial gesture recognized from the image captured by the imaging device, And performing a predetermined utterance recognized by voice recognition of the received voice. The controller 120 may calculate movement information for controlling the vertical direction of the mouse point of the electronic device 50 based on the movement of the mobile terminal 100 in the up and down direction, The movement information for controlling the left and right direction of the mouse point of the electronic device 50 can be calculated based on the movement of the mouse 50. [

제어부(120)는 이동 단말기(100)를 잡은 손이 오른손 또는 왼손인지 여부를 확인할 수 있다. 여기서 제어부(120)는 센서부(110)의 근접 센서가 감지한 결과를 이용하여 이동 단말기를 잡은 손이 오른손 또는 왼손인지 여부를 확인할 수 있고, 검출된 접촉 지점을 이용하여 이동 단말기(100)를 잡은 손이 오른손 또는 왼손인지 여부를 확인할 수 있다.The control unit 120 can confirm whether the hand holding the mobile terminal 100 is a right hand or a left hand. Here, the controller 120 can check whether the hand holding the mobile terminal is a right hand or a left hand using the result of sensing the proximity sensor of the sensor unit 110, You can check whether your hand is right or left handed.

제어부(120)는 통신부(150)가 호 신호를 수신한 경우에는, 전자장치(50)로 상기 호 신호의 수신을 알리기 위한 정보가 전송되도록 제어할 수 있다.When the communication unit 150 receives the call signal, the control unit 120 may control the electronic device 50 to transmit the information for notifying the reception of the call signal.

제어부(120)는 통신부(150)가 문자 메시지를 수신한 경우에는, 전자장치(50)로 상기 문자 메시지의 수신을 알리는 정보가 전송되도록 제어할 수 있다. 상기 정보는 상기 문자 메시지의 내용을 포함할 수 있다.When the communication unit 150 receives the text message, the control unit 120 may control the electronic device 50 to transmit the information indicating the reception of the text message. The information may include the contents of the text message.

디스플레이부(130)는 마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이한다. The display unit 130 displays a graphical user interface (GUI) associated with the mouse function.

사용자 인터페이스부(140)는 디스플레이부(130)가 디스플레이한 GUI에 대한 사용자 조치를 감지한다. 상기 사용자 조치는 상기 GUI를 터치하는 터치 제스처일 수 있다.The user interface unit 140 detects a user action on the GUI displayed by the display unit 130. [ The user action may be a touch gesture that touches the GUI.

통신부(150)는 전자장치(50)로 제어부(120)가 생성한 이동 정보, 제어 정보, 호 신호의 수신을 알리기 위한 정보 및 문자 메시지의 수신을 알리기 위한 정보 중 적어도 하나를 전송할 수 있다. 또한 통신부(150)는 전자장치(150)로부터 마우스 포인트의 위치정보, 상기 호 신호의 수신을 알리기 위한 정보에 대한 응답 정보, 상기 문자 메시지의 수신을 알리기 위한 정보에 대한 응답 정보 중 적어도 하나를 수신할 수 있다.The communication unit 150 may transmit at least one of movement information generated by the control unit 120, control information, information for informing reception of a call signal, and information for informing reception of a text message to the electronic device 50. Also, the communication unit 150 receives at least one of the location information of the mouse point from the electronic device 150, the response information on the information for notifying the reception of the call signal, and the response information on the information for informing the reception of the text message can do.

저장부(160)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 이동 단말기(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.The storage unit 160 may be implemented as a read only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside on a removable storage medium and may be loaded or installed on the mobile terminal 100 when needed. The removable storage medium may include a CD-ROM, a PC-CARD, a memory card, a floppy disk, a magnetic tape, and a network component.

도 4는 본 발명에 따른 원격 제어를 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 일시예를 도시한 도면이다.4 is a diagram illustrating a preferred temporal example of a graphical user interface (GUI) for remote control according to the present invention.

도 4를 참조하면, 디스플레이(130)는 GUI(400)를 디스플레이할 수 있다. GUI(400)는 이동 단말기(100)를 파지한 손이 오른손으로 확인된 경우에, 디스플레이될 수 있다.Referring to FIG. 4, the display 130 may display the GUI 400. The GUI 400 can be displayed when the hand holding the mobile terminal 100 is confirmed with the right hand.

GUI(400)는 마우스의 좌측 버튼과 연관된 영역(410), 마우스의 우측 버튼과 연관된 영역(420), 마우스의 휠과 연관된 영역(430) 및 설정을 위한 GUI를 디스플레이하기 위한 버튼(440)을 포함한다. The GUI 400 includes an area 410 associated with the left button of the mouse, an area 420 associated with the right button of the mouse, an area 430 associated with the wheel of the mouse, and a button 440 for displaying the GUI for configuration .

일예로, 영역(410)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 마우스의 좌클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.For example, when a touch gesture that touches the area 410 is detected, the control unit 120 generates control information corresponding to a left click of the mouse, and controls so that the generated control information is transmitted to the electronic device 50 can do.

영역(420)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 마우스의 우클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.When the touch gesture for touching the area 420 is sensed, the control unit 120 generates control information corresponding to the right click of the mouse, and controls the generated control information to be transmitted to the electronic device 50. [

영역(430)을 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼의 회전과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.When a gesture for dragging the area 430 is sensed, the control unit 120 generates control information corresponding to the rotation of the wheel button of the mouse, and controls the generated control information to be transmitted to the electronic device 50 have.

버튼(440)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 도 7에 도시된 GUI(700)를 디스플레이하도록 디스플레이부(130)를 제어할 수 있다.The controller 120 may control the display unit 130 to display the GUI 700 shown in FIG.

도 5는 본 발명에 따른 원격 제어를 위한 그래픽 사용자 인터페이스(GUI : Graphicla User Interface)의 바람직한 다른 실시예를 도시한 도면이다.FIG. 5 is a diagram illustrating another preferred embodiment of a graphical user interface (GUI) for remote control according to the present invention.

도 5를 참조하면, 디스플레이(130)는 GUI(500)를 디스플레이할 수 있다. GUI(500)는 이동 단말기(100)를 파지한 손이 왼손으로 확인된 경우에, 디스플레이될 수 있다.Referring to FIG. 5, the display 130 may display the GUI 500. The GUI 500 can be displayed when the hand holding the mobile terminal 100 is identified with the left hand.

GUI(500)는 마우스의 좌측 버튼과 연관된 영역(510), 마우스의 우측 버튼과 연관된 영역(520), 마우스의 휠과 연관된 영역(530) 및 설정을 위한 GUI를 디스플레이하기 위한 버튼(540)을 포함한다. The GUI 500 includes an area 510 associated with the left button of the mouse, an area 520 associated with the right button of the mouse, an area 530 associated with the wheel of the mouse, and a button 540 for displaying the GUI for configuration .

일예로, 영역(510)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 마우스의 좌클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.For example, when a touch gesture for touching the area 510 is sensed, the control unit 120 generates control information corresponding to a left click of the mouse, and controls so that the generated control information is transmitted to the electronic device 50 can do.

영역(520)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 마우스의 우클릭과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.When the touch gesture for touching the area 520 is sensed, the control unit 120 generates control information corresponding to the right click of the mouse, and controls the generated control information to be transmitted to the electronic device 50.

영역(530)을 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼의 회전과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.When a gesture for dragging the area 530 is detected, the control unit 120 generates control information corresponding to the rotation of the wheel button of the mouse, and controls the generated control information to be transmitted to the electronic device 50 have.

버튼(540)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 도 7에 도시된 GUI(700)를 디스플레이하도록 디스플레이부(130)를 제어할 수 있다.The controller 120 may control the display unit 130 to display the GUI 700 shown in FIG.

도 6은 본 발명에 따른 원격 제어를 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 또 다른 실시예를 도시한 도면이다.6 is a diagram illustrating another preferred embodiment of a graphical user interface (GUI) for remote control according to the present invention.

도 6을 참조하면, 디스플레이(130)는 GUI(600)를 디스플레이할 수 있다.Referring to FIG. 6, the display 130 may display the GUI 600.

GUI(600)는 영역(610), 영역(620) 및 설정을 위한 GUI를 디스플레이하기 위한 버튼(640)을 포함한다. The GUI 600 includes a region 610, an area 620, and a button 640 for displaying a GUI for setting.

이동 단말기(100)를 파지한 손이 오른손으로 확인된 경우에는, 영역(610)은 마우스의 좌측 버튼과 연관되고, 영역(620)은 마우스의 우측 버튼과 연관된다. 이러한 경우에, 일예로 영역(610)을 터치하는 터치제스처(611)가 감지된 경우에는, 제어부(120)는 마우스의 좌클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. 영역(620)을 터치하는 터치제스처(621)가 감지된 경우에는, 제어부(120)는 마우스의 우클릭과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. When the hand holding the mobile terminal 100 is confirmed with the right hand, the region 610 is associated with the left button of the mouse, and the region 620 is associated with the right button of the mouse. In this case, for example, when the touch gesture 611 touching the area 610 is sensed, the control unit 120 generates control information corresponding to a left click of the mouse, 50). When the touch gesture 621 touching the area 620 is sensed, the control unit 120 generates control information corresponding to the right click of the mouse and controls the generated control information to be transmitted to the electronic device 50 .

이동 단말기(100)를 파지한 손이 왼손으로 확인된 경우에는, 영역(610)은 마우스의 우측 버튼과 연관되고, 영역(620)은 마우스의 좌측 버튼과 연관된다. 이러한 경우에, 일예로 영역(610)을 터치하는 터치제스처(611)가 감지된 경우에는, 제어부(120)는 마우스의 우클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. 영역(620)을 터치하는 터치제스처(621)가 감지된 경우에는, 제어부(120)는 마우스의 좌클릭과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. When the hand holding the mobile terminal 100 is identified with the left hand, the region 610 is associated with the right button of the mouse, and the region 620 is associated with the left button of the mouse. In this case, for example, when the touch gesture 611 touching the area 610 is sensed, the control unit 120 generates control information corresponding to the right click of the mouse, and the generated control information is transmitted to the electronic device 50 ). ≪ / RTI > When the touch gesture 621 touching the area 620 is sensed, the control unit 120 generates control information corresponding to the left click of the mouse, and controls so that the generated control information is transmitted to the electronic device 50 can do.

영역(610) 또는 영역(620)을 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼의 회전과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. 일실시예로, 이동 단말기(100)를 파지한 손이 오른손으로 확인된 경우에는, 제1 지점(611)에서 제2 지점(613)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향으로 회전하는 것과 대응하는 제어정보를 생성하고, 제3 지점(621)에서 제4 지점(623)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향의 반대 방향으로 회전하는 것과 대응하는 제어정보를 생성한다.When a gesture for dragging the area 610 or the area 620 is sensed, the control unit 120 generates control information corresponding to the rotation of the wheel button of the mouse, and transmits the generated control information to the electronic device 50 To be transmitted. In a case where a hand holding the mobile terminal 100 is detected with the right hand and a gesture for dragging from the first point 611 to the second point 613 is sensed, When a gesture for dragging from the third point 621 to the fourth point 623 is sensed, the control unit 120 generates control information corresponding to the rotation of the wheel button of the mouse in the center direction of the mouse, And the control information corresponding to the rotation of the wheel button of the mouse wheel in the direction opposite to the center direction of the mouse.

일실시예로, 이동 단말기(100)를 파지한 손이 왼손으로 확인된 경우에는, 제1 지점(611)에서 제2 지점(613)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향의 반대 방향으로 회전하는 것과 대응하는 제어정보를 생성하고, 제3 지점(621)에서 제4 지점(623)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향으로 회전하는 것과 대응하는 제어정보를 생성한다.In a case where a hand holding the mobile terminal 100 is detected by the left hand and a gesture for dragging from the first point 611 to the second point 613 is sensed, When a gesture for dragging from the third point 621 to the fourth point 623 is sensed, the controller 120 generates control information corresponding to the rotation of the wheel button of the mouse in the direction opposite to the center of the mouse, Generates control information corresponding to the rotation of the wheel button of the mouse in the center direction of the mouse.

버튼(640)을 터치하는 터치제스처가 감지된 경우에는, 제어부(120)는 도 7에 도시된 GUI(700)를 디스플레이하도록 디스플레이부(130)를 제어할 수 있다.When the touch gesture for touching the button 640 is sensed, the control unit 120 may control the display unit 130 to display the GUI 700 shown in FIG.

도 7은 원격 제어를 환경을 설정하기 위한 그래픽 사용자 인터페이스(GUI : Graphical User Interface)의 바람직한 일실예를 도시한 도면이다.7 is a diagram showing a preferred example of a graphical user interface (GUI) for setting an environment for remote control.

도 7을 참조하면, 디스플레이부(130)는 GUI(700)를 디스플레이할 수 있다. GUI(700)는 GUI의 배치를 설정하기 위한 제1 선택 박스(711) 및 제2 선택 박스(713), 소리의 크기를 설정하기 위한 조절 막대(720), 진도의 크기를 설정하기 위한 조절 막대(730), 색상을 설정하기 위한 색상 선택 박스(741, 743, 745. 747)를 포함할 수 있다. Referring to FIG. 7, the display unit 130 may display the GUI 700. FIG. The GUI 700 includes a first selection box 711 and a second selection box 713 for setting the layout of the GUI, a control bar 720 for setting the size of sound, a control bar 720 for setting the magnitude of progress, A color selection box 730, and a color selection box 741, 743, 745, 747 for setting a color.

제1 선택 박스(711)는 왼손 사용자를 위한 배치를 선택하기 위한 것이고, 제2 선택 박스(713)는 오른손 사용자를 위한 배치를 선택하기 위한 것이다. 일부 실시예로, 제어부(130)는 제1 선택 박스(711) 및 제2 선택 박스(713) 중 선택된 박스에 따라 마우스 기능과 연관된 GUI를 다르게 디스플레이되도록 제어할 수 있다. 일예로, 제1 선택 박스(711)가 선택된 경우에는, 디스플레이부(130)는 GUI(500)를 디스플레이할 수 있고, 제2 선택 박스(713)가 선택된 경우에는, 디스플레이부(130)는 GUI(400)를 디스플레이할 수 있다. The first selection box 711 is for selecting a layout for a left-handed user, and the second selection box 713 is for selecting a layout for a right-handed user. In some embodiments, the control unit 130 may control the GUI associated with the mouse function to be displayed differently according to the selected one of the first selection box 711 and the second selection box 713. [ For example, when the first selection box 711 is selected, the display unit 130 can display the GUI 500, and when the second selection box 713 is selected, (400).

일부 실시예로, 제어부(130)는 GUI(600)가 디스플레이되도록 제어할 수 있다. 제2 선택 박스(713)가 선택된 경우에는, 영역(610)은 마우스의 좌측 버튼과 연관되고, 영역(620)은 마우스의 우측 버튼과 연관된다. 이러한 경우에, 일예로 영역(610)을 터치하는 터치제스처(611)가 감지된 경우에는, 제어부(120)는 마우스의 좌클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. 영역(620)을 터치하는 터치제스처(621)가 감지된 경우에는, 제어부(120)는 마우스의 우클릭과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다.In some embodiments, the control unit 130 may control the GUI 600 to be displayed. When the second selection box 713 is selected, the region 610 is associated with the left button of the mouse, and the region 620 is associated with the right button of the mouse. In this case, for example, when the touch gesture 611 touching the area 610 is sensed, the control unit 120 generates control information corresponding to a left click of the mouse, 50). When the touch gesture 621 touching the area 620 is sensed, the control unit 120 generates control information corresponding to the right click of the mouse and controls the generated control information to be transmitted to the electronic device 50 .

제1 선택 박스(711)가 선택된 경우에는, 영역(610)은 마우스의 우측 버튼과 연관되고, 영역(620)은 마우스의 좌측 버튼과 연관된다. 이러한 경우에, 일예로 영역(610)을 터치하는 터치제스처(611)가 감지된 경우에는, 제어부(120)는 마우스의 우클릭과 대응하는 제어 정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. 영역(620)을 터치하는 터치제스처(621)가 감지된 경우에는, 제어부(120)는 마우스의 좌클릭과 대응하는 제어정보를 생성하고, 생성한 제어 정보가 전자장치(50)로 전송되도록 제어할 수 있다. When the first selection box 711 is selected, the region 610 is associated with the right button of the mouse, and the region 620 is associated with the left button of the mouse. In this case, for example, when the touch gesture 611 touching the area 610 is sensed, the control unit 120 generates control information corresponding to the right click of the mouse, and the generated control information is transmitted to the electronic device 50 ). ≪ / RTI > When the touch gesture 621 touching the area 620 is sensed, the control unit 120 generates control information corresponding to the left click of the mouse, and controls so that the generated control information is transmitted to the electronic device 50 can do.

제2 선택 박스(713)가 선택된 경우에는, 제1 지점(611)에서 제2 지점(613)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향으로 회전하는 것과 대응하는 제어정보를 생성하고, 제3 지점(621)에서 제4 지점(623)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향의 반대 방향으로 회전하는 것과 대응하는 제어정보를 생성한다.When the second selection box 713 is selected and the gesture for dragging from the first point 611 to the second point 613 is sensed, the control unit 120 determines that the wheel button of the mouse is in the center of the mouse When the gesture for dragging from the third point 621 to the fourth point 623 is sensed, the control unit 120 determines that the wheel button of the mouse is opposite to the direction of the center of the mouse Direction and corresponding control information.

제1 선택 박스(711)가 선택된 경우에는, 제1 지점(611)에서 제2 지점(613)으로 드래깅하는 제스처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향의 반대 방향으로 회전하는 것과 대응하는 제어정보를 생성하고, 제3 지점(621)에서 제4 지점(623)으로 드래깅하는 제츠처가 감지된 경우에는, 제어부(120)는 마우스의 휠 버튼이 마우스의 중심 방향으로 회전하는 것과 대응하는 제어정보를 생성한다.When the first selection box 711 is selected and the gesture for dragging from the first point 611 to the second point 613 is sensed, the control unit 120 determines that the wheel button of the mouse is in the center of the mouse The control unit 120 determines that the wheel button of the mouse is positioned at the center of the mouse (i.e., the center of the mouse) Direction and corresponding control information.

도 8은 전자장치가 디스플레이한 화면의 일예를 도시한 도면이다.8 is a diagram showing an example of a screen displayed by the electronic device.

도 8을 참조하면, 호 신호를 수신한 경우에는, 통신부(150)는 전자 장치(50)로 상기 호 신호의 수신을 알리기 위한 정보를 전송할 수 있다. 여기서, 상기 호 신호의 수신을 알리기 위한 정보는 마우스 포인트(801)와 연관된 위치에 디스플레이되도록 지시하는 정보를 포함할 수 있다. 이에 따라 메시지(810)는 마우스 포인트(801)와 연관된 위치에 디스플레이될 수 있다.Referring to FIG. 8, when a call signal is received, the communication unit 150 may transmit information for notifying reception of the call signal to the electronic device 50. FIG. Here, the information for informing reception of the call signal may include information indicating to be displayed at a position associated with the mouse point 801. [ Accordingly, the message 810 can be displayed at a location associated with the mouse point 801. [

전자 장치(50)는 상기 호 신호의 수신을 알리기 위한 정보를 수신한 경우에는, 메시지(810)를 디스플레이할 수 있다. 메시지(810)는 전화가 왔다는 것을 알리는 내용, 버튼(811) 및 버튼(815)를 포함한다. 버튼(811)이 선택된 경우에는, 전자 장치(50)는 전화 연결을 지시하는 정보를 이동 단말기(100)에 전송한다. 상기 정보를 수신한 경우에는, 이동 단말기(100)는 수신된 호를 연결할 수 있다.When the electronic device 50 receives the information for informing the reception of the call signal, the electronic device 50 can display the message 810. [ The message 810 includes content informing that the call has come, button 811 and button 815. [ When the button 811 is selected, the electronic device 50 transmits the information indicating the telephone connection to the mobile terminal 100. When the information is received, the mobile terminal 100 can connect the received call.

버튼(815)이 선택된 경우에는, 전자 장치(50)는 전화 연결 거부를 지시하는 정보를 이동 단말기(100)에 전송한다. 상기 정보를 수신한 경우에는, 이동 단말기(100)는 수신된 호를 끊을 수 있다.When the button 815 is selected, the electronic device 50 transmits information indicating the refusal of the telephone connection to the mobile terminal 100. When the information is received, the mobile terminal 100 may disconnect the received call.

도 9는 전자장치가 디스플레이한 화면의 다른 예를 도시한 도면이다.9 is a view showing another example of a screen displayed by the electronic device.

도 9를 참조하면, 문자 메시지를 수신한 경우에는, 통신부(150)는 전자 장치(50)로 상기 문자 메시지의 수신을 알리기 위한 정보를 전송할 수 있다. 여기서, 상기 문자 메시지의 수신을 알리기 위한 정보는 마우스 포인트(901)와 연관된 위치에 디스플레되도록 지시하는 정보를 포함할 수 있다. 이에 따라 메시지(910)는 마우스 포인트(901)와 연관된 위치에 디스플레이될 수 있다.Referring to FIG. 9, when a text message is received, the communication unit 150 may transmit information for notifying the reception of the text message to the electronic device 50. Herein, the information for informing reception of the text message may include information indicating to be displayed at a position associated with the mouse point 901. [ Accordingly, the message 910 may be displayed at a location associated with the mouse point 901. [

전자 장치(50)는 상기 문자 메시지의 수신을 알리기 위한 정보를 수신한 경우에는, 메시지(910)를 디스플레이할 수 있다. 메시지(910)는 문자 메시지가 왔다는 것을 알리는 내용, 버튼(911) 및 버튼(915)을 포함한다. 버튼(911)이 선택된 경우에는, 전자 장치(50)는 상기 문자 메시지를 디스플레이한다. 여기서 도 10에 도시된 메시지(1010)가 디스플레이될 수 있다.When the electronic device 50 receives the information for notifying the reception of the text message, the electronic device 50 can display the message 910. [ The message 910 includes contents informing that the text message has arrived, a button 911 and a button 915. When the button 911 is selected, the electronic device 50 displays the text message. Here, the message 1010 shown in FIG. 10 may be displayed.

버튼(915)이 선택된 경우에는, 전자 장치(50)는 메시지(910)의 디스플레이를 중지한다.When the button 915 is selected, the electronic device 50 stops displaying the message 910.

도 10은 전자장치가 디스플레이한 화면의 또 다른 예를 도시한 도면이다. 10 is a diagram showing another example of a screen displayed by the electronic device.

도 10을 참조하면, 문자 메시지를 수신한 경우에는, 통신부(150)는 전자 장치(50)로 상기 문자 메시지의 수신을 알리기 위한 정보를 전송할 수 있다. 여기서, 상기 문자 메시지의 수신을 알리기 위한 정보는 마우스 포인트(1001)와 연관된 위치에 디스플레되도록 지시하는 정보를 포함할 수 있다. 이에 따라 메시지(1010)는 마우스 포인트(1001)와 연관된 위치에 디스플레이될 수 있다.Referring to FIG. 10, when a text message is received, the communication unit 150 may transmit information for notifying the reception of the text message to the electronic device 50. FIG. Herein, the information for informing reception of the text message may include information indicating to be displayed at a position associated with the mouse point 1001. [ Accordingly, the message 1010 can be displayed at a location associated with the mouse point 1001.

전자 장치(50)는 상기 문자 메시지의 수신을 알리기 위한 정보를 수신한 경우에는, 메시지(1010)를 디스플레이할 수 있다. 메시지(1010)는 문자 메시지의 내용을 디스플레이한다. 버튼(1015)이 선택된 경우에는, 전자 장치(50)는 메시지(1010)의 디스플레이를 중지한다.When the electronic device 50 receives the information for notifying the reception of the text message, the electronic device 50 can display the message 1010. [ The message 1010 displays the contents of the text message. If the button 1015 is selected, the electronic device 50 stops displaying the message 1010.

도 11은 본 발명에 따른 이동 단말기를 구동하기 위한 방법에 대한 바람직한 일실시예의 수행과정을 도시한 순서도이다.FIG. 11 is a flowchart illustrating a method of operating a mobile terminal according to an exemplary embodiment of the present invention. Referring to FIG.

도 11을 참조하면, 사용자 인터페이스부(140)는 마우스 애플리케이션을 선택하는 사용자 조치를 감지한다(S300). Referring to FIG. 11, the user interface unit 140 detects a user action of selecting a mouse application (S300).

상기 사용자 조치 감지에 응답하여, 제어부(120)는 이동 단말기(100)를 파지한 손을 확인한다(S305). 여기서 제어부(120)는 센서부(110)가 감지한 결과를 기초로 이동 단말기(100)를 파지한 손을 확인할 수 있다.In response to the user action detection, the controller 120 confirms the hand holding the mobile terminal 100 (S305). Here, the control unit 120 can identify the hand holding the mobile terminal 100 based on the result of the detection by the sensor unit 110.

상기 사용자 조치 감지에 응답하여, 디스플레이부(130)는 마우스 기능과 연관된 GUI를 디스플레이한다(S310). 상기 GUI는, 단계 S305에서 확인된 손에 따라 다르게 변경될 수 있다. 또한 상기 GUI가 디스플레이된 후, 이동 단말기(100)를 파지한 손이 변경된 경우에는, 제어부(120)는 변경된 손에 따라 GUI를 변경할 수 있다.In response to the user action detection, the display unit 130 displays a GUI associated with the mouse function (S310). The GUI may be changed differently according to the hand identified in step S305. If the hand held by the mobile terminal 100 is changed after the GUI is displayed, the control unit 120 may change the GUI according to the changed hand.

디스플레이(130)는 단계 S310에서 GUI(400), GUI(500) 또는 GUI(600)를 디스플레이할 수 있다. The display 130 may display the GUI 400, the GUI 500 or the GUI 600 in step S310.

일부 실시예로, 단계 S305에서 오른손 잡이용 GUI 또는 왼손 잡이용 GUI 중 하나가 선택된 설정을 확인할 수 있고, 단계 S310에서 확인 결과에 따라 마우스 기능과 연관된 GUI를 디스플레이한다. 예를 들면, 오른손 잡이용 GUI이 설정된 경우에는, 단계 S310에서 GUI(400) 또는 GUI(600)이 디스플레이될 수 있고, 왼손 잡이용 GUI이 설정된 경우에는, 단계 S310에서 GUI(500) 또는 GUI(600)이 디스플레이될 수 있고,In some embodiments, one of the right-handed GUI or the left-handed GUI can check the selected setting at step S305, and displays the GUI associated with the mouse function according to the confirmation result at step S310. For example, when the right-handed use GUI is set, the GUI 400 or the GUI 600 may be displayed in step S310, and the GUI 500 or the GUI 600 may be displayed,

제어부(120)는 센서부(110)가 이동 단말기(100)의 움직임을 감지하였는지 여부를 확인한다(S315).The control unit 120 determines whether the sensor unit 110 senses the movement of the mobile terminal 100 (S315).

이동 단말기(100)의 움직임을 감지한 경우에는, 제어부(120)는 감지된 이동 단말기(100)의 움직임을 기초로 전자장치(50)의 마우스 포인트의 움직임을 제어하기 위한 이동 정보를 생성한다(S320).The control unit 120 generates movement information for controlling the movement of the mouse point of the electronic device 50 based on the detected movement of the mobile terminal 100 S320).

통신부(150)는 제어부(120)가 생성한 이동 정보를 전자 장치(50)로 전송한다(S325).The communication unit 150 transmits the movement information generated by the control unit 120 to the electronic device 50 (S325).

제어부(120)는 사용자 인터페이스부(140)가 단계 S310에서 디스플레이된 GUI에 대한 사용자 조치를 감지하였는지 여부를 확인한다(S330).The control unit 120 determines whether the user interface unit 140 has detected a user action on the GUI displayed in step S310 (S330).

사용자 인터페이스부(140)가 사용자 조치를 감지한 경우에는, 제어부(120)는 전자 장치(50)를 제어하기 위한 제어 정보를 생성한다(S335).When the user interface unit 140 detects a user action, the control unit 120 generates control information for controlling the electronic device 50 (S335).

통신부(150)는 제어부(120)가 생성한 제어 정보를 전자 장치(50)로 전송한다(S340). 여기서 제어 정보 및 이동 정보는 함께 전송될 수 있다.The communication unit 150 transmits the control information generated by the control unit 120 to the electronic device 50 (S340). Wherein the control information and the movement information can be transmitted together.

제어부(120)는 호 신호를 수신하였는지 여부를 확인한다(S345).The control unit 120 confirms whether the call signal is received (S345).

호 신호를 수신한 경우에는, 통신부(150)는 전자 장치(50)로 상기 호 신호의 수신을 알리기 위한 정보를 전송한다(S350). 전자 장치(50)는 상기 호 신호의 수신을 알리기 위한 정보를 수신한 경우에는, 도 9에 도시된 메시지(810)를 디스플레이할 수 있다. 여기서, 상기 호 신호의 수신을 알리기 위한 정보는 마우스 포인트(801)와 연관된 위치에 디스플레되도록 지시하는 정보를 포함할 수 있다.When receiving the call signal, the communication unit 150 transmits the information for notifying the reception of the call signal to the electronic device 50 (S350). When the electronic device 50 receives the information for informing reception of the call signal, the electronic device 50 can display the message 810 shown in FIG. Herein, the information for informing reception of the call signal may include information indicating to be displayed at a position associated with the mouse point 801.

제어부(120)는 문자 메시지를 수신하였는지 여부를 확인한다(S355).The control unit 120 determines whether a text message has been received (S355).

문자 메시지를 수신한 경우에는, 통신부(150)는 전자 장치(50)로 상기 문자 메시지의 수신을 알리기 위한 정보를 전송한다(S360). 전자 장치(50)는 상기 문자 메시지를 알리기 위한 정보를 수신한 경우에는, 도 9에 도시된 메시지(910) 또는 도 10에 도시된 메시지(1010)를 디스플레이할 수 있다. 여기서, 상기 메시지 수신을 알리기 위한 정보는 마우스 포인트(901) 또는 마우스 포인트(1001)와 연관된 위치에 디스플레되도록 지시하는 정보를 포함할 수 있다.When receiving the text message, the communication unit 150 transmits the information for notifying the reception of the text message to the electronic device 50 (S360). When the electronic device 50 receives the information for notifying the text message, the electronic device 50 can display the message 910 shown in FIG. 9 or the message 1010 shown in FIG. Herein, the information for informing the reception of the message may include information indicating to be displayed at a position associated with the mouse point 901 or the mouse point 1001. [

제어부(120)는 마우스 애플리케이션에 대한 종료 요청 감지 여부를 확인한다(S360). 종료 요청이 감지된 경우에는, 제어부(120)는 마우스 애플리케이션을 종료시킨다.The control unit 120 checks whether a termination request for the mouse application is detected (S360). If a termination request is detected, the control unit 120 terminates the mouse application.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

Claims (17)

이동 단말기에 있어서,
상기 이동 단말기의 움직임을 감지하는 센서부;
마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이하는 디스플레이부;
상기 디스플레이된 GUI에 대한 사용자 조치를 감지하는 사용자 인터페이스부;
상기 감지된 움직임을 기초로 전자장치의 마우스 포인트의 움직임을 제어하기 위한 이동 정보 및 상기 감지된 사용자 조치를 기초로 상기 전자장치를 제어하기 위한 제어 정보를 생성하는 제어부; 및
상기 전자장치로 상기 이동 정보 및 상기 제어 정보를 중 적어도 하나를 포함하는 신호를 전송하는 통신부를 포함하는 것을 특징으로 하는 이동 단말기.
In the mobile terminal,
A sensor unit for sensing movement of the mobile terminal;
A display unit for displaying a graphical user interface (GUI) associated with the mouse function;
A user interface unit for detecting a user action on the displayed GUI;
A control unit for generating movement information for controlling movement of a mouse point of the electronic device based on the sensed movement and control information for controlling the electronic device based on the sensed user action; And
And a communication unit for transmitting a signal including at least one of the movement information and the control information to the electronic device.
제 1항에 있어서,
상기 제어부는,
호 신호를 수신한 경우에는, 상기 전자장치로 상기 호 신호의 수신을 알리기 위한 정보가 전송되도록 제어하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
And controls to transmit information for informing reception of the call signal to the electronic device when the call signal is received.
제 1항에 있어서,
상기 제어부는,
문자 메시지를 수신하는 경우에는, 상기 전자장치로 상기 문자 메시지의 수신을 알리기 위한 정보가 전송되도록 제어하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
And controls to transmit information for informing reception of the text message to the electronic device when receiving the text message.
제 1항에 있어서,
상기 제어부는,
상기 이동 단말기를 잡은 손이 오른손 또는 왼손인지 여부를 확인하고, 상기 확인 결과에 따라 상기 GUI를 변경하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
Determines whether the hand holding the mobile terminal is a right hand or a left hand, and changes the GUI according to a result of the check.
제 4항에 있어서,
상기 GUI는,
마우스의 우측 버튼과 연관된 영역, 마우스의 좌측 버튼과 연관된 영역 및 마우스의 휠과 연관된 영역 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.
5. The method of claim 4,
The GUI includes:
An area associated with the right button of the mouse, an area associated with the left button of the mouse, and an area associated with the wheel of the mouse.
제 5항에 있어서,
상기 제어부는,
상기 확인 결과에 따라 상기 GUI의 동일 지점을 누르는 사용자 조치에 대한 제어 신호를 다르게 생성하는 것을 특징으로 하는 이동 단말기.
6. The method of claim 5,
Wherein,
And generates a control signal for a user action to press the same point of the GUI differently according to the result of the checking.
제 4항에 있어서,
상기 제어부는,
상기 GUI의 제1 지점에서 제2 지점으로 드래깅하는 사용자 조치를 감지한 경우에는, 마우스의 휠의 움직임과 연관된 제어 정보를 생성하고,
상기 확인 결과에 따라 상기 제어 정보가 다르게 생성되는 것을 특징으로 하는 이동 단말기.
5. The method of claim 4,
Wherein,
Generating control information associated with movement of a wheel of a mouse when a user action to drag from a first point to a second point of the GUI is sensed,
And the control information is generated differently according to the check result.
제 7항에 있어서,
상기 제어부는,
상기 제1 지점 및 상기 제2 지점이 마우스의 우측 버튼과 연관된 영역에 위치하는 경우에는, 마우스의 휠의 제1 방향으로 움직임과 연관된 제어 정보를 생성하고, 상기 제1 지점 및 상기 제2 지점이 마우스의 좌측 버튼과 연관된 영역에 위치하는 경우에는, 마우스의 휠이 상기 제1 방향의 반대 방향으로 움직임을 지시하는 제어 정보를 생성하는 것을 특징으로 하는 이동 단말기.
8. The method of claim 7,
Wherein,
Generating control information associated with motion in a first direction of a wheel of the mouse when the first point and the second point are located in an area associated with a right button of the mouse, Wherein when the mobile terminal is located in an area associated with a left button of the mouse, the wheel of the mouse generates control information instructing movement in a direction opposite to the first direction.
제 1항에 있어서,
상기 센서부는,
가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
The sensor unit includes:
An acceleration sensor, a gyro sensor, and a geomagnetic sensor.
제 1항에 있어서,
상기 GUI는 사용자 설정에 따라 변경되는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein the GUI is changed according to user settings.
센서부, 디스플레이부, 사용자 인터페이스부, 제어부 및 통신부를 포함하는 이동 단말기에 있어서,
적어도 하나의 명령어를 포함하는 프로그램을 저장하는 저장부를 포함하고,
상기 프로그램이 상기 이동 단말기에서 실행된 경우에 상기 적어도 하나의 명령어는,
상기 센서부가 상기 이동 단말기의 움직임을 감지하게 하는 명령어;
상기 디스플레이부가 마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이하게 하는 명령어;
상기 사용자 인터페이스부가 상기 디스플레이된 GUI에 대한 사용자 조치를 감지하게 하는 명령어;
상기 제어부가 상기 감지된 움직임을 기초로 전자장치의 마우스 포인트의 움직임을 제어하기 위한 이동 정보 및 상기 감지된 사용자 조치를 기초로 상기 전자장치를 제어하기 위한 제어 정보를 생성하게 하는 명령어; 및
상기 통신부가 상기 전자장치로 상기 이동 정보 및 상기 제어 정보를 중 적어도 하나를 포함하는 신호를 전송하게 하는 명령어를 포함하는 것을 특징으로 하는 이동 단말기.
A mobile terminal including a sensor unit, a display unit, a user interface unit, a control unit, and a communication unit,
And a storage unit for storing a program including at least one instruction,
Wherein the at least one instruction, when the program is executed in the mobile terminal,
The sensor unit detecting movement of the mobile terminal;
Instructions for causing the display unit to display a graphical user interface (GUI) associated with a mouse function;
Causing the user interface unit to detect a user action on the displayed GUI;
Causing the controller to generate movement information for controlling movement of a mouse point of the electronic device based on the sensed movement and control information for controlling the electronic device based on the sensed user action; And
And causing the communication unit to transmit a signal including at least one of the movement information and the control information to the electronic device.
이동 단말기를 구동하기 위한 방법에 있어서,
마우스 기능을 구현하는 마우스 애플리케이션을 선택하는 사용자 조치를 감지하는 단계;
상기 사용자 조치 감지에 응답하여, 상기 이동 단말기의 움직임을 감지하는 단계;
상기 감지된 움직임을 기초로 전자장치의 마우스 포인트의 움직임을 제어하기 위한 이동 정보를 생성하는 단계; 및
상기 생성된 이동 정보를 상기 전자장치로 전송하는 단계를 포함하는 것을 특징으로 하는 이동 단말기를 구동하기 위한 방법.
A method for driving a mobile terminal,
Sensing a user action to select a mouse application that implements a mouse function;
Detecting movement of the mobile terminal in response to the user action detection;
Generating movement information for controlling movement of a mouse point of the electronic device based on the sensed movement; And
And transmitting the generated movement information to the electronic device.
제 12항에 있어서,
상기 사용자 조치 감지에 응답하여, 마우스 기능과 연관된 그래픽 사용자 인터페이스(GUI : Graphical User Interface)를 디스플레이하는 단계;
상기 디스플레이된 GUI에 대한 사용자 조치를 감지하는 단계;
상기 감지된 사용자 조치를 기초로 상기 전자장치를 제어하기 위한 제어 정보를 생성하는 단계; 및
상기 전자장치로 상기 제어 정보를 전송하는 단계를 포함하는 것을 특징으로 하는 이동 단말기를 구동하기 위한 방법.
13. The method of claim 12,
Displaying a graphical user interface (GUI) associated with the mouse function in response to the user action detection;
Detecting a user action on the displayed GUI;
Generating control information for controlling the electronic device based on the sensed user action; And
And transmitting the control information to the electronic device.
제 13항에 있어서,
상기 이동 단말기를 파지한 손을 확인하는 단계를 더 포함하고,
상기 확인 결과에 따라 상기 GUI는 다르게 디스플레이되는 것을 특징으로 하는 이동 단말기를 구동하기 위한 방법.
14. The method of claim 13,
Further comprising confirming a hand holding the mobile terminal,
Wherein the GUI is displayed differently according to the result of the checking.
제 12항에 있어서,
호 신호를 수신하는 단계; 및
상기 호 신호의 수신을 알리기 위한 정보를 상기 전자장치로 전송하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기를 구동하기 위한 방법.
13. The method of claim 12,
Receiving a call signal; And
And transmitting information for informing reception of the call signal to the electronic device.
제 12항에 있어서,
문자 메시지를 수신하는 단계; 및
상기 문자 메시지의 수신을 알리기 위한 정보를 상기 전자장치로 전송하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기를 구동하기 위한 방법.
13. The method of claim 12,
Receiving a text message; And
And transmitting information for notifying reception of the text message to the electronic device.
제 12 내지 16항 중 어느 하나에 기재된 이동 단말기를 구동하기 위한 방법을 디지털 처리 장치에서 실행시키기 위한 프로그램을 기록한 상기 디지털 처리 장치로 판독될 수 있는 기록매체.
A recording medium that can be read by the digital processing apparatus in which a program for causing a digital processing apparatus to execute a method for driving the mobile terminal according to any one of claims 12 to 16 is recorded.
KR1020140181678A 2014-12-16 2014-12-16 Mobile terminal, method for operating mobile terminal and recording medium KR101723271B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140181678A KR101723271B1 (en) 2014-12-16 2014-12-16 Mobile terminal, method for operating mobile terminal and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140181678A KR101723271B1 (en) 2014-12-16 2014-12-16 Mobile terminal, method for operating mobile terminal and recording medium

Publications (2)

Publication Number Publication Date
KR20160073194A true KR20160073194A (en) 2016-06-24
KR101723271B1 KR101723271B1 (en) 2017-04-04

Family

ID=56343365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140181678A KR101723271B1 (en) 2014-12-16 2014-12-16 Mobile terminal, method for operating mobile terminal and recording medium

Country Status (1)

Country Link
KR (1) KR101723271B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220065367A (en) 2020-11-13 2022-05-20 장범준 functional lifestyle suitable for modern life style
KR20220079139A (en) 2020-12-04 2022-06-13 김영인 modern Korean traditional clothes that can be worn to fit the body with strings

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040047325A (en) * 2002-11-29 2004-06-05 삼성전자주식회사 System for operating together wireless communication using display device
KR20130017339A (en) * 2011-08-10 2013-02-20 오충록 Portable electric device for providing mouse function and operating method thereof
KR20140088446A (en) * 2013-01-02 2014-07-10 삼성전자주식회사 Method for providing function of mouse and terminal implementing the same
KR20140089874A (en) * 2013-01-07 2014-07-16 삼성전자주식회사 Method and apparatus for providing mouse function using touch device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040047325A (en) * 2002-11-29 2004-06-05 삼성전자주식회사 System for operating together wireless communication using display device
KR20130017339A (en) * 2011-08-10 2013-02-20 오충록 Portable electric device for providing mouse function and operating method thereof
KR20140088446A (en) * 2013-01-02 2014-07-10 삼성전자주식회사 Method for providing function of mouse and terminal implementing the same
KR20140089874A (en) * 2013-01-07 2014-07-16 삼성전자주식회사 Method and apparatus for providing mouse function using touch device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220065367A (en) 2020-11-13 2022-05-20 장범준 functional lifestyle suitable for modern life style
KR20220079139A (en) 2020-12-04 2022-06-13 김영인 modern Korean traditional clothes that can be worn to fit the body with strings

Also Published As

Publication number Publication date
KR101723271B1 (en) 2017-04-04

Similar Documents

Publication Publication Date Title
EP3262499B1 (en) Device, method, and computer readable storage medium for providing and interacting with a virtual drawing aid
KR101995278B1 (en) Method and apparatus for displaying ui of touch device
EP3686723B1 (en) User terminal device providing user interaction and method therefor
US10135905B2 (en) Remote user interface
KR102091028B1 (en) Method for providing user's interaction using multi hovering gesture
KR101538803B1 (en) Portable electronic device functioning as pen-table and computer system using the same
TWI525522B (en) Target element moving method, device and electronic equipment thereof
US8988342B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
EP2808771A1 (en) Method for processing input and electronic device thereof
US10341480B2 (en) Wearable device paired with mobile terminal and operating method thereof
US9286081B2 (en) Input device event processing
US20150324082A1 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
AU2013276998B2 (en) Mouse function provision method and terminal implementing the same
KR20140100335A (en) The digital device for recognizing double-sided touch and method thereof
US20130342456A1 (en) Remote control apparatus and control method thereof
US10191603B2 (en) Information processing device and information processing method
KR20160001266A (en) Mobile terminal and method for controlling the same
KR101872272B1 (en) Method and apparatus for controlling of electronic device using a control device
WO2015117077A1 (en) Techniques for providing user input to a device
US9703577B2 (en) Automatically executing application using short run indicator on terminal device
KR20170100485A (en) Digital device and control method thereof
EP2731001A2 (en) Electronic device and method for changing an object according to a bending state
KR101723271B1 (en) Mobile terminal, method for operating mobile terminal and recording medium
EP2706451A2 (en) Method of processing touch input for mobile device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 4