KR20150015698A - Mobile terminal and controlling method thereof - Google Patents

Mobile terminal and controlling method thereof Download PDF

Info

Publication number
KR20150015698A
KR20150015698A KR1020130091385A KR20130091385A KR20150015698A KR 20150015698 A KR20150015698 A KR 20150015698A KR 1020130091385 A KR1020130091385 A KR 1020130091385A KR 20130091385 A KR20130091385 A KR 20130091385A KR 20150015698 A KR20150015698 A KR 20150015698A
Authority
KR
South Korea
Prior art keywords
touch
touch gesture
touch screen
mobile terminal
input
Prior art date
Application number
KR1020130091385A
Other languages
Korean (ko)
Inventor
정은수
강신녀
현주하
오세숙
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130091385A priority Critical patent/KR20150015698A/en
Publication of KR20150015698A publication Critical patent/KR20150015698A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention provides a mobile terminal. The mobile terminal includes a touch screen and a control unit. The touch screen displays an object. The control unit determines whether a first touch gesture corresponds to a scroll command in a first direction with respect to the object or a move command in a second direction with respect to the object according to at least one of a starting position and a direction of the first touch gesture when the first touch gesture is input by a pointer on the touch screen. The present invention may also provide user convenience in operating a mobile terminal with a display unit having a large size.

Description

이동 단말기 및 이의 제어 방법{MOBILE TERMINAL AND CONTROLLING METHOD THEREOF}[0001] MOBILE TERMINAL AND CONTROLLING METHOD THEREOF [0002]

본 발명은 객체가 디스플레이되는 영역을 조절할 수 있는 이동 단말기 및 이의 제어 방법에 관한 것이다.The present invention relates to a mobile terminal capable of adjusting an area in which an object is displayed and a control method thereof.

최근 정보 통신 기술의 발달에 따라 통화나 메시지 송수신뿐만 아니라 대용량의 데이터 송수신 및 저장이 가능한 이동단말기가 널리 보급되고 있다. 이와 같은 이동단말기는 그 성능이 향상됨에 따라, 수행할 수 있는 기능 역시 다양해지고 있다. 특히, 사용자에게 동영상이나 지도 정보 등 다양한 컨텐츠를 제공하기 위하여 이동단말기의 디스플레이부는 확대 설계 되는 추세이다.2. Description of the Related Art [0002] With the recent development of information communication technologies, mobile terminals capable of transmitting and receiving data and storing not only calls and messages, but also a large amount of data have become popular. As the performance of such a mobile terminal is improved, the functions that can be performed are also diversified. In particular, in order to provide various contents such as moving picture and map information to the user, the display unit of the mobile terminal is being enlarged and designed.

그러나, 이러한 이동 단말기의 디스플레이부의 확대 설계는 이동 단말기의 사용자가 한 손으로 이동단말기를 파지한 채 조작하는데 있어 불편을 야기할 수 있다.However, the enlarged design of the display unit of the mobile terminal may cause inconvenience to the user of the mobile terminal while grasping the mobile terminal with one hand.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 사용자가 넓은 크기의 디스플레이부를 구비하는 이동 단말기를 조작하는데 있어 편의를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a convenience for a user to operate a mobile terminal having a display unit of a wide size.

보다 구체적으로, 본 발명은 디스플레이부의 전체 영역에 디스플레이되는 객체를 특정 터치제스처 입력을 통해 사용자가 조작하기 편리한 디스플레이부의 일부 영역으로 이동시킬 수 있는 이동단말기를 제공하기 위한 것이다. 또한, 이와 같이 객체가 이동됨에 따라, 객체의 사이즈가 변경되거나 객체의 디스플레이 영역이 조절됨으로써 사용자가 디스플레이부의 일부 영역에서 조작할 수 있는 이동 단말기를 제공하기 위한 것이다.More specifically, the present invention provides a mobile terminal capable of moving an object displayed in an entire area of a display unit to a partial area of a display unit that is convenient for a user to operate through a specific touch gesture input. The object of the present invention is to provide a mobile terminal in which the size of the object is changed or the display area of the object is adjusted as the object is moved, so that the user can operate in a partial area of the display unit.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

본 발명의 일실시예에 따른 이동 단말기는, 객체를 디스플레이하는 터치스크린 및 상기 터치스크린에 포인터에 의해 제1 터치제스처가 입력 되면, 상기 제1 터치제스처의 시작 위치 및 방향 중 적어도 하나에 따라 상기 제1 터치제스처가 상기 객체에 대한 제1 방향으로의 스크롤 명령인지, 상기 객체에 대한 제2 방향으로의 이동 명령인지 결정하는 제어부를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, there is provided a mobile terminal including: a touch screen for displaying an object; and a controller for inputting a first touch gesture by a pointer on the touch screen, And a controller for determining whether the first touch gesture is a scroll command in the first direction for the object and a movement command in the second direction for the object.

본 발명에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtained by the present invention are not limited to the above-mentioned solutions, and other solutions not mentioned are clearly described to those skilled in the art from the following description. It can be understood.

본 발명의 실시예에 따른 이동 단말기는 이동 단말기의 디스플레이부의 전체 영역에 디스플레이된 객체를 디스플레이부의 특정 영역으로 이동시킴으로써, 사용자에게 조작의 편의성을 제공할 수 있다.The mobile terminal according to the embodiment of the present invention can provide the convenience to the user by moving the object displayed in the entire area of the display unit of the mobile terminal to a specific area of the display unit.

또한, 본 발명의 이동 단말기는 이동 단말기의 디스플레이부의 전체 영역에 디스플레이되는 객체의 사이즈를 조절하여 디스플레이부의 특정 영역에 디스플레이함으로써, 사용자에게 조작의 편의성을 제공할 수 있다.In addition, the mobile terminal of the present invention can provide convenience to the user by displaying the object in a specific area of the display unit by adjusting the size of the object displayed in the entire area of the display unit of the mobile terminal.

나아가, 본 발명의 이동 단말기를 이용하면, 상기와 같이 객체가 디스플레이되는 디스플레이부의 특정 영역 외의 영역에 다른 객체를 디스플레이할 수 있으므로, 사용자가 이동 단말기 조작하는데 있어 디스플레이부를 효과적으로 활용할 수 있도록 한다.In addition, when the mobile terminal of the present invention is used, other objects can be displayed in an area other than a specific area of the display unit on which the object is displayed, so that the user can effectively utilize the display unit in operating the mobile terminal.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram).
도 2는 각각 본 발명과 관련된 이동 단말기의 일 예를 전면에서 바라본 사시도.
도 3은 본 발명의 실시예에 따른 이동단말기의 일 예를 후면에서 바라본 사시도.
도 4는 본 발명의 실시예에 따른 이동 단말기의 동작 흐름도.
도 5는 본 발명의 실시예에 따른 객체의 이동을 설명하기 위한 예시도.
도 6은 본 발명의 실시예에 따른 객체의 다른 방향으로의 이동을 설명하기 위한 예시도.
도 7은 본 발명의 실시예에 따른 객체의 이동 방향 변경을 설명하기 위한 예시도.
도 8은 본 발명의 실시예에 따른 제1 터치제스처의 시작위치에 따라 객체가 이동되는 것을 설명하기 위한 예시도.
도 9는 본 발명의 실시예에 따른 제1 터치제스처의 드래그 방향에 따라 객체가 이동되는 것을 설명하기 위한 예시도.
도 10은 본 발명의 실시예에 다른 객체의 스크롤을 설명하기 위한 예시도.
도 11은 본 발명의 실시예에 따른 객체의 이동 중, 객체의 사이즈 조절을 설명하기 위한 예시도.
도 12는 본 발명의 실시예에 따른 객체의 일부 영역 확대 방식을 설명하기 위한 예시도.
도 13은 본 발명의 실시예에 따라 이동된 객체의 디스플레이 영역 외에 디스플레이되는 다른 객체를 설명하기 위한 예시도.
도 14은 본 발명의 실시예에 따른 객체의 이동 거리에 따라 디스플레이되는 다른 객체의 수량 변화를 설명하기 위한 예시도.
도 15는 본 발명에 실시예에 따른 객체와 같은 그룹에 속하는 다른 객체가 디스플레이되는 방식을 설명하기 위한 예시도.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a perspective view of an example of a mobile terminal according to the present invention.
FIG. 3 is a perspective view of an example of a mobile terminal according to an embodiment of the present invention, as viewed from the rear; FIG.
4 is a flowchart illustrating an operation of a mobile terminal according to an exemplary embodiment of the present invention.
5 is an exemplary diagram for explaining movement of an object according to an embodiment of the present invention;
6 is an exemplary view for explaining movement of an object in another direction according to an embodiment of the present invention;
FIG. 7 is an exemplary view for explaining an object moving direction change according to an embodiment of the present invention; FIG.
8 is an exemplary view for explaining how an object moves according to a start position of a first touch gesture according to an embodiment of the present invention;
FIG. 9 is an exemplary view for explaining how an object moves according to a drag direction of a first touch gesture according to an embodiment of the present invention; FIG.
10 is an exemplary view for explaining scrolling of objects according to an embodiment of the present invention;
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]
FIG. 12 is an exemplary view for explaining a method of enlarging a partial area of an object according to an embodiment of the present invention; FIG.
13 is an exemplary view for explaining another object displayed in addition to the display area of the moved object according to the embodiment of the present invention;
FIG. 14 is an exemplary diagram illustrating a change in the quantity of another object displayed according to the movement distance of the object according to the embodiment of the present invention; FIG.
15 is an exemplary view for explaining a manner in which other objects belonging to the same group as an object according to an embodiment of the present invention are displayed.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and navigation. However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈(1100)이 상기 이동단말기(100)에 제공될 수 있다.The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more broadcast receiving modules 1100 may be provided to the mobile terminal 100 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.

상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미한다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information means information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), DVB-CBMS (Convergence of Broadcasting and Mobile Service), OMA-BCAST (Open Mobile Alliance-BroadCAST), CMMB (China Multimedia Mobile Broadcasting), MBBMS (Mobile Broadcasting Business Management System), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (Mobile Broadcasting Business Management System), ISDB-T (Integrated Services Digital Broadcasting (ISDB-T)), Digital Multimedia Broadcasting (MBMS) Digital Broadcast-Terrestrial) or the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, GSM(Global System for Mobile communications), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA)(이에 한정되지 않음)와 같은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication module 112 may comprise at least one of a base station, an external terminal, and a server on a mobile communication network such as Global System for Mobile communications (GSM), Code Division Multiple Access (CDMA), Wideband CDMA Transmits and receives wireless signals with one. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE(Long Term Evolution)(이에 한정되지 않음) 등이 이용될 수 있다.The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. Wireless Internet technologies include WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE Evolution (but not limited to) may be used.

Wibro, HSDPA, GSM, CDMA, WCDMA, LTE 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.The wireless Internet module 113, which performs wireless Internet access through the mobile communication network, is connected to the mobile communication module 110 through the mobile communication network, for example, from the viewpoint that the wireless Internet access by Wibro, HSDPA, GSM, CDMA, WCDMA, LTE, (112).

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다.The position information module 115 is a module for obtaining the position of the mobile terminal, and a representative example thereof is a Global Position System (GPS) module. According to the current technology, the GPS module 115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to obtain a three-dimensional string of latitude, longitude, The location information can be accurately calculated. At present, a method of calculating position and time information using three satellites and correcting an error of the calculated position and time information using another satellite is widely used. In addition, the GPS module 115 can calculate speed information by continuously calculating the current position in real time.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 이동단말기(100)의 전·후면 또는 측면에 위치하는 버튼(136), 터치 센서(정압/정전)(137)로 구성될 수 있고, 도시되지는 않았지만 키패드(key pad), 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등을 더욱 포함하여 구성될 수 있다.The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a button 136 and a touch sensor (static pressure / static electricity) 137 located on the front, back, or side of the mobile terminal 100, and may include a keypad, A dome switch, a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 상기 센싱부(140)의 예로는, 자이로스코프 센서, 가속도 센서, 지자기 센서 등이 있을 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. Examples of the sensing unit 140 include a gyroscope sensor, an acceleration sensor, and a geomagnetic sensor.

예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. It is also possible to sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is for generating output related to the visual, auditory or tactile sense and includes a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154 .

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller (not shown). The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.The proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is enclosed by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 호칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 호칭할 수 있다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미할 수 있다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch" The act of actually contacting the pointer on the touch screen may be referred to as "contact touch. &Quot; The location where the pointer is proximately touched on the touch screen may refer to a position where the pointer corresponds vertically to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있으므로, 이 경우 상기 디스플레이부(151) 및 음성출력모듈(152)은 알람부(153)의 일종으로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. In this case, the display unit 151 and the audio output module 152 may be a type of the alarm unit 153. The display unit 151 and the audio output module 152 may be connected to the display unit 151 or the audio output module 152, .

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅틱 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the haptic module 154 are controllable. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of the air through the injection port or the suction port, a touch on the skin surface, contact of an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다. The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the mobile terminal 100.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)가 저장될 수 있다.The memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store the input / output data (e.g., telephone directory, message, audio, For example. The memory unit 160 may store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia).

또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller)(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다. 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(170)의 일 예로서 구성될 수 있다.The battery may be an internal battery configured to be chargeable, and may be detachably coupled to the terminal body for charging or the like. The connection port may be configured as an example of an interface 170 through which an external charger for supplying power for charging the battery is electrically connected.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

도 2는 본 발명과 관련된 이동 단말기 또는 휴대 단말기의 일 예를 전면에서 바라본 사시도이다.FIG. 2 is a perspective view of a mobile terminal or a portable terminal according to the present invention, as viewed from the front.

개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 2 이상의 바디들이 상대 이동 가능하게 결합되는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용이 가능하다.The disclosed mobile terminal 100 includes a bar-shaped terminal body. However, the present invention is not limited thereto, and can be applied to various structures such as a slide type, a folder type, a swing type, and a swivel type in which two or more bodies are relatively movably coupled.

상기 이동단말기(100)의 바디는 외관을 이루는 케이스(101, 102, 103)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다.The body of the mobile terminal 100 includes a casing 101, 102, In this embodiment, the case may be divided into a front case 101 and a rear case 102. [ A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102.

경우에 따라서는 리어 케이스(102)의 표면에도 전자부품이 실장 될 수 있다. 상기 리어 케이스(102)의 표면에 실장되는 전자부품은 사용자가 탈착이 필요한 배터리, USIM카드 및 메모리카드 등이 있다. 이 때, 상기 리어 케이스(102)는 그 표면을 커버하기 위한 후면커버(103)를 더 구비할 수 있다. 상기 후면커버(103)는 사용자가 용이하게 탈부착 가능한 구조로 형성되며, 상기 후면커버(103)를 제거하면, 상기 리어 케이스(102)의 표면이 노출된다.In some cases, electronic components may be mounted on the surface of the rear case 102 as well. Electronic components mounted on the surface of the rear case 102 include a battery, a USIM card, a memory card, and the like which are detachable by the user. At this time, the rear case 102 may further include a rear cover 103 for covering the surface thereof. When the rear cover 103 is removed, the surface of the rear case 102 is exposed.

도 2에 도시된 바와 같이 상기 후면커버(103)를 결합하면, 상기 리어 케이스(102)의 측면 일부만 노출될 수도 있고, 상기 후면커버(103)의 사이즈를 작게 하면 상기 리어케이스(102)의 배면 일부도 노출될 수 있다. 상기 후면커버(103)가 상기 리어 케이스(102)의 배면 전체을 커버하는 경우 카메라(121’)나 음향 출력부(152’)를 외부로 노출시키기 위한 개구부(103')를 포함할 수 있다.As shown in FIG. 2, when the rear cover 103 is coupled, only a part of the side surface of the rear case 102 may be exposed. When the size of the rear cover 103 is reduced, Some may also be exposed. And an opening 103 'for exposing the camera 121' or the sound output unit 152 'to the outside when the rear cover 103 covers the entire rear surface of the rear case 102.

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injection molding a synthetic resin, or may be formed to have a metal material such as stainless steel (STS) or titanium (Ti) or the like.

단말기 바디, 주로 프론트 케이스(101)에는 디스플레이부(151), 음향출력부(152), 카메라(121), 사용자 입력부(130/131,132), 마이크(122), 인터페이스(170) 등이 배치될 수 있다.The display unit 151, the sound output unit 152, the camera 121, the user input units 130/131 and 132, the microphone 122, the interface 170, and the like may be disposed in the front body 101 have.

디스플레이부(151)는 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 음향출력부(152)와 카메라(121)가 배치되고, 다른 단부에 인접한 영역에는 사용자 입력부(131)와 마이크(122)가 배치된다. 사용자 입력부(132)와 인터페이스(170) 등은 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 배치될 수 있다.The display unit 151 occupies most of the main surface of the front case 101. A sound output unit 152 and a camera 121 are disposed in an area adjacent to one end of both ends of the display unit 151 and a user input unit 131 and a microphone 122 are disposed in an area adjacent to the other end. The user input unit 132 and the interface 170 may be disposed on the side surfaces of the front case 101 and the rear case 102. [

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들(131,132)을 포함할 수 있다. 조작 유닛들(131,132)은 조작부(manipulating portion)로도 통칭 될 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the mobile terminal 100 and may include a plurality of operation units 131 and 132. The operation units 131 and 132 may be collectively referred to as a manipulating portion.

제1 또는 제2조작 유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 음향출력부(152)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드 활성화/비활성화 등과 같은 명령을 입력받을 수 있다.The contents inputted by the first or second operation unit 131 or 132 may be variously set. For example, the first operation unit 131 receives commands such as start, end, scroll, and the like, and the second operation unit 132 controls the size of the sound output from the sound output unit 152 or the size of the sound output from the display unit 151 The touch recognition mode can be activated or deactivated.

도 3은 도 2에 도시된 이동 단말기의 후면 사시도이다.3 is a rear perspective view of the mobile terminal shown in FIG.

도 3을 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 카메라(121')가 추가로 장착될 수 있다. 카메라(121')는 카메라(121, 도 2a 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 카메라(121)와 같거나 서로 다른 화소를 가지는 카메라일 수 있다.Referring to FIG. 3, a camera 121 'may be further mounted on the rear surface of the terminal body, that is, the rear case 102. The camera 121 'may have a photographing direction substantially opposite to that of the camera 121 (see FIG. 2A), and may be a camera having the same or different pixels as the camera 121.

예를 들어, 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 카메라(121')는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 카메라(121,121')는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.For example, the camera 121 may have a low pixel so that the face of the user can be photographed and transmitted to the other party in case of a video call or the like, and the camera 121 ' It is preferable to have a large number of pixels. The cameras 121 and 121 'may be installed in the terminal body so as to be rotatable or pop-upable.

카메라(121')에 인접하게는 플래쉬(123)와 거울(124)이 추가로 배치될 수 있다. 플래쉬(123)는 카메라(121')로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 카메라(121')를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 may be additionally disposed adjacent to the camera 121 '. The flash 123 illuminates the subject when the subject is photographed by the camera 121 '. The mirror 124 allows the user to illuminate the user's own face or the like when the user intends to shoot himself / herself (self-photographing) using the camera 121 '.

단말기 바디의 후면에는 음향 출력부(152')가 추가로 배치될 수도 있다. 음향 출력부(152')는 음향 출력부(152, 도 2 참조)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.An acoustic output 152 'may be additionally disposed on the rear surface of the terminal body. The sound output unit 152 'may implement the stereo function together with the sound output unit 152 (see FIG. 2) and may be used for the implementation of the speakerphone mode in a call.

통화 등을 위한 안테나 외에 방송신호 수신용 안테나(116)가 단말기 바디의 측면에 추가적으로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나(116)는 단말기 바디에서 인출 가능하게 설치될 수 있다.In addition to the antenna for communication, a broadcast signal receiving antenna 116 may be additionally disposed on the side of the terminal body. The antenna 116, which forms part of the broadcast receiving module 111 (see FIG. 1), can be installed to be able to be drawn out from the terminal body.

단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 직접 탈착될 수 있게 구성될 수 있다.A power supply unit 190 for supplying power to the mobile terminal 100 is mounted on the terminal body. The power supply unit 190 may be built in the terminal body or may be detachable from the outside of the terminal body.

리어 케이스(102)에는 터치를 감지하기 위한 터치 패드(135)가 추가로 장착될 수 있다. 터치 패드(135)는 디스플레이부(151)를 위해 광 투과형으로 구성될 수도 있다. 이 경우에, 디스플레이부(151)가 양면에서(즉, 이동단말기의 전면 및 후면 둘 다의 방향으로) 시각 정보를 출력하도록 구성된다면, 터치 패드(135)를 통해서도 상기 시각 정보를 인지할 수 있게 된다. 상기 양면에 출력되는 정보는 상기 터치 패드(135)에 의해 모두 제어될 수도 있다.The rear case 102 may further include a touch pad 135 for sensing a touch. The touch pad 135 may be of a light transmission type for the display unit 151. [ In this case, if the display unit 151 is configured to output the time information on both sides (i.e., in the directions of both the front and back sides of the mobile terminal), the time information can be recognized through the touch pad 135 do. The information output on both sides may be all controlled by the touch pad 135. [

한편, 터치 패드(135) 전용 디스플레이가 별도로 장착됨으로써, 리어 케이스(102)에도 터치 스크린이 배치될 수도 있다.Meanwhile, the display for exclusive use of the touch pad 135 may be separately installed, so that the touch screen may be disposed in the rear case 102 as well.

터치 패드(135)는 프론트 케이스(101)의 디스플레이부(151)와 상호 관련되어 작동한다. 터치 패드(135)는 디스플레이부(151)의 후방에 평행하게 배치될 수 있다. 이러한 터치 패드(135)는 디스플레이부(151)와 동일하거나 작은 크기를 가질 수 있다.The touch pad 135 operates in correlation with the display portion 151 of the front case 101. The touch pad 135 may be disposed parallel to the rear of the display unit 151. The touch pad 135 may have a size equal to or smaller than that of the display unit 151.

이하에서는 이와 같이 구성된 이동 단말기(100)에서 구현될 수 있는 제어 방법과 관련된 실시예들에 대해 첨부된 도면을 참조하여 살펴보겠다.Hereinafter, embodiments related to a control method that can be implemented in the mobile terminal 100 constructed as above will be described with reference to the accompanying drawings.

설명의 편의를 위하여 이하에서 언급되는 이동 단말기(100)는 도 1에 도시된 구성요소들 중 적어도 하나를 포함한다고 가정한다. 구체적으로, 본 발명에 따른 이동 단말기(100)는 사용자 입력부(130), 디스플레이부(151), 메모리(160) 및 제어부(180)를 포함할 수 있다. 경우에 따라, 본 발명에 따른 이동 단말기(100)는 근접 센서(141)를 더 포함할 수 있다. 본 발명은 디스플레이부(151)가 터치스크린(151)으로 구현되는 경우, 더욱 용이하게 실시될 수 있으므로, 이하에서는 디스플레이부(151)가 터치스크린(151)인 것으로 가정하여 본 발명을 설명하기로 한다. 또한, 사용자 입력부(130)가 터치센서(137)를 포함하여 구성되는 경우, 상기 터치스크린(151)은 사용자 입력부(130)로도 이용될 수 있다.For convenience of description, it is assumed that the mobile terminal 100 mentioned below includes at least one of the components shown in FIG. The mobile terminal 100 may include a user input unit 130, a display unit 151, a memory 160, and a control unit 180. [ In some cases, the mobile terminal 100 according to the present invention may further include a proximity sensor 141. The present invention can be implemented more easily when the display unit 151 is implemented as the touch screen 151. The present invention will be described below assuming that the display unit 151 is the touch screen 151 do. When the user input unit 130 includes the touch sensor 137, the touch screen 151 may be used as the user input unit 130.

본 명세서에서 객체란 이동 단말기(100)의 기능과 관련하여 터치스크린(151) 상에 표시되는 대상을 말한다. 예를 들어, 사용자가 이동 단말기(100)를 통해 웹 사이트에 접속하는 경우, 상기 객체는 해당 웹 사이트 제공자로부터 제공되며, 터치스크린(151) 상에 표시되는 웹 페이지일 수 있다. 또한, 이동 단말기(100)의 메모리(160)에 저장되어 있거나, 무선통신부(110)를 통해 수신되어 터치스크린(151)을 통해 표시될 수 있는 각종 이미지, 영상 등의 컨텐츠 역시 상기 객체에 해당할 수 있다.In this specification, an object refers to an object displayed on the touch screen 151 in relation to the function of the mobile terminal 100. For example, when a user accesses a web site through the mobile terminal 100, the object may be provided from the web site provider, and may be a web page displayed on the touch screen 151. [ Contents such as various images and images that are stored in the memory 160 of the mobile terminal 100 or received through the wireless communication unit 110 and displayed through the touch screen 151 may also be displayed .

또한, 본 발명의 객체는 이동 단말기(100)의 제어부(180)를 통해 운용되는 각종 어플리케이션의 실행화면을 포함할 수 있다. 예를 들어, 음악파일 또는 영상파일 재생을 위한 어플리케이션의 실행 명령이 입력되어 터치스크린(151) 상에 플레이어가 표시되는 경우, 상기 객체는 상기 플레이어일 수 있다. 또한, 메시지 송수신을 위한 어플리케이션이 실행 중일 때, 상기 객체는 터치스크린(151)을 통해 표시되는 메시지 입력 창의 소프트 키보드일 수 있다. 본 발명의 객체는 상술한 예로 한정되지 않으며, 사용자가 이동단말기(100)를 사용하는 데 있어 터치스크린(151)을 통해 표시되는 조작할 수 있는 모든 대상을 포함할 수 있다. 특히, 상기 터치스크린(151)이 사용자 입력부(130)로 이용되는 경우, 상기 객체는 터치스크린(151) 상에 입력되는 사용자의 터치제스처에 의해 조작될 수 있다.In addition, the object of the present invention may include execution screens of various applications operated through the control unit 180 of the mobile terminal 100. [ For example, when an execution command of an application for playing a music file or a video file is input and a player is displayed on the touch screen 151, the object may be the player. In addition, when an application for sending / receiving a message is running, the object may be a soft keyboard of a message input window displayed through the touch screen 151. [ The object of the present invention is not limited to the above-described example, and may include all operable objects displayed through the touch screen 151 in the use of the mobile terminal 100 by the user. In particular, when the touch screen 151 is used as the user input unit 130, the object may be operated by a user's touch gesture input on the touch screen 151.

여기에서, 터치제스처란, 사용자가 터치스크린(151)을 통해 이동단말기(100)를 조작하기 위한 입력 동작을 말한다. 제어부(180)는 터치스크린(151)을 통하여 입력된 사용자의 터치제스처를 이동단말기(100)의 조작 명령으로 인식할 수 있다. 상기 터치제스처의 종류로는 터치스크린(151)의 특정 포인트에 대한 사용자의 터치 입력, 탭(tab) 동작, 플릭(flick) 동작 및 특정 궤적을 그리는 터치 드래그(drag) 동작 등을 포함한다. 상기 터치제스처의 입력 방식은 사용자의 손가락을 이용한 핑거 터치 입력과 전자 펜을 이용한 터치 입력을 포함할 수 있다, 또한, 손가락이나 전자 펜 이외의 어떤 포인터라도 터치스크린(151)이 터치센서를 통해 입력을 인식할 수 있으면, 터치제스처를 위한 포인터로 이용할 수 있다.Here, the touch gesture refers to an input operation for the user to operate the mobile terminal 100 through the touch screen 151. [ The control unit 180 can recognize the user's touch gesture inputted through the touch screen 151 as an operation command of the mobile terminal 100. [ Examples of the type of the touch gesture include a touch input, a tab operation, a flick operation, and a touch drag operation for drawing a specific trajectory with respect to a specific point of the touch screen 151. The input method of the touch gesture may include a finger touch input using a user's finger and a touch input using an electronic pen. Also, any pointer other than a finger or an electronic pen may be input through the touch sensor 151 It can be used as a pointer for a touch gesture.

특히, 터치제스처를 터치스크린(151)과의 접촉 여부로 설명하면, 본 명세서에서 하나의 터치제스처는 사용자가 포인터를 통해 터치스크린(151)에 접촉을 시작한 후, 터치스크린(151)과의 접촉이 릴리스(release)될 때까지의 동작을 말한다. 예를 들어, 하나의 터치제스처가 행해지고(이하, 제1 터치제스처라 하나다.), 포인터가 터치스크린(151)과 접촉이 해제 된 후, 터치제스처(이하, 제2 터치제스처라 한다.)가 또 다시 행해지면 제2 터치제스처는 제1 터치제스처와 별개의 터치제스처로 볼 수 있다. 따라서, 제어부(180)는 제1 터치제스처가 입력된 후에, 포인터와 터치스크린(151)의 접촉이 해제되지 않은 상태라면, 상기 제1 터치제스처의 입력 방향, 접촉 면적 등의 변화가 있더라도 여전히 제1 터치제스처가 계속 중인 것으로 판단할 수 있다.In particular, in the present specification, one touch gesture is a touch gesture in which a user starts to contact the touch screen 151 through a pointer, and then the touch gesture is contacted with the touch screen 151 This refers to the operation until release. For example, one touch gesture is performed (hereinafter, referred to as a first touch gesture), and after the pointer is released from contact with the touch screen 151, a touch gesture (hereinafter referred to as a second touch gesture) The second touch gesture can be viewed as a separate touch gesture from the first touch gesture. Therefore, if the contact between the pointer and the touch screen 151 is not released after the input of the first touch gesture, the control unit 180 determines whether the input direction, the contact area, It can be determined that one-touch gesture is still in progress.

또한, 본 명세서에서 객체의 이동이란 터치스크린(151)이 객체를 표시할 수 있는 전체 영역에 표시되는 객체가 터치스크린(151)의 일부 영역으로 이동하는 것을 말한다. 상기 객체는 터치스크린(151)의 일부 영역으로 이동함에 따라, 원래 객체의 전체 영역 중 일부분만 터치스크린(151)에 표시될 수 있으며, 나머지 부분은 터치스크린(151) 상에 표시되지 않을 수 있다. 제어부(180)는 터치스크린(151)에 제1 터치제스처가 행해지고, 제1 터치제스처가 객체 이동 명령인 것으로 판단되면, 이를 터치스크린(151) 상에서 객체를 이동시켜 디스플레이 하라는 명령으로 인식할 수 있다. 즉, 제어부(180)는 객체를 이동시키고, 상기 객체의 이동 과정을 터치스크린(151)을 통해 디스플레이 할 수 있다. 구체적으로 제어부(180)는 제1 터치제스처의 방향, 길이를 감지하여 이에 대응하는 방향, 거리로 객체를 이동시킬 수 있다. 또한, 제어부(180)는 이동하던 객체가 제1 터치제스처의 시작 위치에 대응하는 터치스크린(151)의 일부 영역에 최종적으로 위치하도록 할 수 있다. 즉, 최종적으로 객체가 위치하는 터치스크린(151) 상의 일부 영역은 제1 터치제스처가 시작된 위치와 관련성을 가질 수 있다. 제1 터치제스처가 릴리스 되기 전인 경우, 객체의 이동이 제1 터치제스처와 동시에 이뤄진다. 예를 들어, 제1 터치제스처가 드래그 입력인 경우, 상기 드래그 입력이 계속되는 동안 객체의 이동도 계속된다.In this specification, movement of an object refers to movement of an object displayed in the entire area where the touch screen 151 can display an object to a partial area of the touch screen 151. As the object moves to a portion of the touch screen 151, only a portion of the entire area of the original object may be displayed on the touch screen 151 and the rest may not be displayed on the touch screen 151 . The controller 180 can recognize that the first touch gesture is performed on the touch screen 151 and that the first touch gesture is an object movement command and that the object is moved and displayed on the touch screen 151 . That is, the control unit 180 may move the object and display the moving process of the object through the touch screen 151. Specifically, the controller 180 may sense the direction and length of the first touch gesture and move the object to a corresponding direction and distance. In addition, the control unit 180 may cause the moved object to be finally positioned in a partial area of the touch screen 151 corresponding to the start position of the first touch gesture. That is, a portion of the area on the touch screen 151 where the object is finally located may be related to the position where the first touch gesture is started. When the first touch gesture is released, the movement of the object is performed simultaneously with the first touch gesture. For example, if the first touch gesture is a drag input, movement of the object is continued while the drag input continues.

제1 터치제스처가 릴리스 된 경우, 객체의 이동을 중지하고 상기 릴리스 순간에 객체가 위치하게 되는 터치스크린(151)의 특정 영역에 객체를 고정시킬 수 있다. 이때, 제어부(180)는 상기 터치스크린(151)을 통해 터치스크린(151)의 일부 영역에 고정된 객체가 디스플레이 되도록 제어할 수 있다. 상기 일부 영역은 제1 터치제스처에 대응하여 객체가 이동을 완료한 경우, 최종적으로 위치하게 되는 터치스크린(151) 상의 영역을 말한다.When the first touch gesture is released, the movement of the object can be stopped and the object can be fixed to a specific area of the touch screen 151 where the object is positioned at the release time. At this time, the controller 180 may control the display of an object fixed on a partial area of the touch screen 151 through the touch screen 151. The partial area refers to an area on the touch screen 151 that is finally positioned when the object has completed movement corresponding to the first touch gesture.

상기 제어부(180)가 터치스크린(151)상에서 객체를 이동시키는데 있어 객체의 사이즈가 조절될 수 있다. 즉, 객체는 사이즈가 유지된 채 터치스크린(151)상에서 이동될 수도 있으나, 사전 설정에 따라 객체는 사이즈가 조절되며 이동될 수도 있다. 제어부(180)는 사전 설정에 따라 제1 터치제스처의 시작위치, 방향, 길이 및 터치 접촉 시간 등에 따라 사이즈의 조절 여부 및 조절 정도를 결정할 수 있다. 즉, 사용자는 제1 터치제스처가 입력되어 객체의 이동 시 객체의 사이즈를 조절할 것인지에 대한 사전 설정을 할 수 있으며 이동 단말기(100)는 상기 사전 설정을 입력하기 위한 사용자 입력부(130) 및 설정 사항을 저장하기 위한 메모리(160)를 별도로 구비할 수도 있다.The size of the object may be adjusted when the controller 180 moves the object on the touch screen 151. That is, the object may be moved on the touch screen 151 while maintaining its size, but the object may be resized and moved according to the preset. The control unit 180 may determine whether to adjust the size and the degree of adjustment according to the start position, the direction, the length, and the touch contact time of the first touch gesture according to the preset settings. That is, the user can pre-set whether the first touch gesture is inputted and adjust the size of the object when moving the object. The mobile terminal 100 includes a user input unit 130 for inputting the preset setting, A memory 160 may be separately provided.

한편, 제어부(180)는 터치제스처가 입력되면 객체를 이동시키지 않고 기존의 위치에서 스크롤 할 수도 있다. 객체의 스크롤이란 터치스크린(151)을 통해 표시되는 객체의 내용을 좌우, 상하 등으로 움직이는 것을 말한다. 정보의 양이 한 터치스크린(151) 상의 한 화면의 분량을 넘어가는 경우, 사용자는 화면에 표시되지 않은 정보를 스크롤 동작을 통해 표시할 수 있다.On the other hand, if the touch gesture is input, the controller 180 may scroll the object at the existing position without moving the object. Scrolling of an object refers to moving the contents of an object displayed through the touch screen 151 left, right, up and down. When the amount of information exceeds the amount of one screen on one touch screen 151, the user can display information that is not displayed on the screen through the scroll operation.

예를 들어 객체가 인터넷 웹 페이지인 경우, 웹 페이지는 많은 컨텐츠와 하이퍼 링크로 연결된 페이지 인식자를 포함한다. 사용자는 컨텐츠 또는 상기 인식자에 터치제스처를 행함에 따라 해당 컨텐츠나 링크된 페이지를 활성화 시킬 수 있다. 이때 웹 페이지에 포함된 모든 컨텐츠와 인식자는 터치스크린(151) 상에 표시되는 하나의 화면 상에 전부 표시되기 힘들다. 따라서, 웹 페이지 제공자는 하나의 화면 상에 전체 페이지가 표시되지 않되, 화면에 표시되지 않는 나머지 페이지를 스크롤 등을 통해 표시될 수 있도록 웹 페이지를 구성하고 제공하는 것이 일반적이다. 사용자는 터치스크린(151) 상에 터치제스처를 통해 상기 스크롤 동작을 수행할 수 있다.For example, if the object is an Internet web page, the web page includes a page identifier coupled with a number of content and hyperlinks. The user can activate the content or the linked page by performing the content or the touch gesture on the identifier. At this time, all contents and identifiers included in the web page are hardly displayed on one screen displayed on the touch screen 151. Accordingly, the web page provider generally constructs and provides a web page so that the entire page is not displayed on one screen, but the remaining pages that are not displayed on the screen can be displayed by scrolling or the like. The user can perform the scroll operation on the touch screen 151 through a touch gesture.

상기 스크롤 동작은 객체 자체를 이동시키는 것이 아니라, 객체의 내용이 움직이도록 하는 동작인 점에서 객체의 이동과 구별될 수 있다. 또한, 터치스크린(151) 상에 객체가 표시되는 영역의 변화유무로도 객체의 스크롤과 객체의 이동이 구별될 수 있다. 객체의 이동은 원래 객체를 표시하던 터치스크린(151) 상의 영역과 이동된 후의 객체가 표시되는 영역 간의 변화가 있다. 반면, 객체의 스크롤은 객체가 표시되는 터치스크린(151) 상의 영역에 변화가 없다.The scrolling operation may be distinguished from the movement of the object in that it is an operation that moves the contents of the object, rather than moving the object itself. Also, the scroll of the object and the movement of the object can be distinguished by the change of the area where the object is displayed on the touch screen 151. There is a change between the area on the touch screen 151 where the original object is displayed and the area where the object after being moved is displayed. On the other hand, scrolling of the object does not change the area on the touch screen 151 where the object is displayed.

제어부(180)는 제1 터치제스처가 입력되면, 이를 객체의 이동 명령 또는 객체의 스크롤 명령 중에 적어도 하나로 인식할 수 있다. 이하, 도 4 내지 도 12를 참조하여, 본 발명에 대해 설명하도록 한다.When the first touch gesture is input, the controller 180 can recognize the first touch gesture as at least one of a move command of the object or a scroll command of the object. Hereinafter, the present invention will be described with reference to Figs. 4 to 12. Fig.

도 4는 본 발명의 실시예에 따른 이동 단말기의 동작 흐름도이고, 도 5는 본 발명의 실시예에 따른 객체의 이동을 설명하기 위한 예시도이다.FIG. 4 is a flowchart illustrating an operation of a mobile terminal according to an embodiment of the present invention, and FIG. 5 is an exemplary diagram illustrating movement of an object according to an embodiment of the present invention.

도 4 및 도 5를 참조하면, 제어부(180)는 터치스크린(151)을 통해 객체(501)가 디스플레이되도록 제어한다(S401). 도 5의 (a)에서 상기 객체의 예시로 인터넷 웹 페이지가 도시되었다. 도 5의(a)와 같이 사용자가 터치스크린(151) 상에 터치제스처(503)를 행하면, 제어부(180)는 상기 터치 제스처를 감지할 수 있다. 이를 추후, 도 5의 (d)에서 컨텐츠를 실행하기 위한 터치제스처와 구별하기 위해 제1 터치제스처라고 한다. 제어부(180)는 제1 터치제스처(503)를 감지하고(S403), 제1 터치제스처가 객체(501)의 이동 명령인지, 스크롤 명령인지 여부를 판단할 수 있다(S405). 4 and 5, the controller 180 controls the object 501 to be displayed through the touch screen 151 (S401). An Internet web page is shown in FIG. 5 (a) as an example of the object. As shown in FIG. 5A, when the user performs a touch gesture 503 on the touch screen 151, the controller 180 can sense the touch gesture. This is hereinafter referred to as a first touch gesture in order to distinguish it from the touch gesture for executing the content in Fig. 5 (d). The controller 180 detects the first touch gesture 503 in step S403 and determines whether the first touch gesture is a movement command of the object 501 or a scroll command in step S405.

도 5 및 도 6은 제1 터치제스처가 객체의 이동 명령인 경우를 설명하기 위한 예시도이며, 특히 제1 터치제스처의 예로 미리 설정된 위치에 소정의 시간 이상 터치 입력 후, 드래그 입력이 행해진 경우가 도시되었다. 상기 미리 설정된 위치에 소정의 시간 이상 터치 입력하는 동작은 드래그 입력 동작에 포함된 것으로 취급할 수 있다. 도 5의 (a) 및 도 6의 (b)를 참조하여 제어부(180)가 제1 터치제스처(503)가 객체의 이동 명령인지, 스크롤 명령인지 여부를 판단하는 방식에 대해 설명한다. 도 5의 (a)를 참조하면, 사용자가 제1 터치제스처(503)을 행하는 시작위치(505)는 베젤 근처의 터치스크린(151)의 우하단 지점(505)이다. 사용자가 터치스크린(151)의 우하단 지점(505)에 소정의 시간 동안 터치를 유지한 후, 터치스크린(151)의 좌측 상단 방향(507)으로, 드래그 입력를 행하면, 제어부(180)는 이를 객체의 이동 명령으로 인식할 수 있다.FIGS. 5 and 6 are diagrams for explaining a case where the first touch gesture is an object movement instruction. Particularly, as an example of the first touch gesture, when a drag input is performed after touch input for a predetermined time or longer Respectively. The operation of touch inputting at the predetermined position for a predetermined time or longer can be handled as being included in the drag input operation. A method of determining whether the first touch gesture 503 is an object movement command or a scroll command will be described with reference to FIGS. 5 (a) and 6 (b). FIG. 5A, the start position 505 at which the user performs the first touch gesture 503 is the lower right point 505 of the touch screen 151 near the bezel. When the user holds the touch for a predetermined time at the lower right point 505 of the touch screen 151 and then performs the drag input in the upper left direction 507 of the touch screen 151, As shown in Fig.

사용자 설정 또는 제조자의 의도에 따라, 제어부(180)는 미리 설정된 위치에 소정 시간 이상의 터치 및 특정 방향 드래그 입력 중 적어도 하나를 감지할 때, 해당 터치제스처를 객체의 이동 명령으로 인식할 수 있다. 즉, 제어부(180)가 특정 방향 드래그 입력만을 감지하는 경우에도 객체의 이동 명령으로 인식하도록 사전 설정될 수 있다. 예를 들면, 제어부(180)는 드래그 입력이 상하, 좌우 방향일 때는 객체의 스크롤 명령으로 인식하고, 대각선 방향의 드래그 입력을 감지하면 이를 객체의 이동 명령으로 인식할 수 있다. 또는 경우에 따라 제어부(180)가 미리 설정된 위치에 소정 시간 이상의 터치만을 감지하는 경우에도 객체의 이동 명령을 인식하도록 사정 설정될 수도 있다.According to the user setting or the manufacturer's intention, when the controller 180 detects at least one of the touch and the specific direction dragging input for a predetermined time or more at a predetermined position, the controller 180 can recognize the touch gesture as a move command of the object. That is, even when the control unit 180 detects only a specific direction drag input, it can be preset to recognize it as a move command of the object. For example, when the drag input is in the up-and-down direction and the left-right direction, the control unit 180 recognizes the object as a scroll command, and when the drag input in the diagonal direction is sensed, the control unit 180 recognizes the object as a move command. Or even when the controller 180 detects only a touch of a predetermined time or more at a predetermined position, it may be determined to recognize the movement command of the object.

제어부(180)가 미리 설정된 위치에 소정 시간 이상의 터치만을 감지하여 객체의 이동 명령을 인식하는 경우 또는 특정 방향의 드래그 입력만을 감지하여 객체의 이동 명령을 인식하는 경우 각각에 대한 설명은 도 8 및 9에서 후술하도록 한다. 또한, 제어부(180)가 제1 터치 제스처를 객체의 스크롤 명령으로 인식한 경우에 대한 설명은 도 10에서 후술하기로 한다.When the control unit 180 recognizes the movement instruction of the object by sensing only the touch for a predetermined time or longer or recognizes the movement instruction of the object by detecting only the drag input in the specific direction, Will be described later. A description of the case where the controller 180 recognizes the first touch gesture as a scroll command of the object will be described later with reference to FIG.

도 6의 (a)를 참조하면, 사용자가 제1 터치제스처(503)을 행하는 시작위치(505)는 베젤 근처의 터치스크린(151)의 좌하단 지점(605)이다. 사용자가 터치스크린(151)의 좌하단 지점(605)에 소정의 시간 동안 터치를 유지한 후, 터치스크린(151)의 우측 상단 방향으로, 드래그 입력(607)를 행하면, 제어부(180)는 이를 객체의 이동 명령으로 인식할 수 있다. 도 6의 (a)에서 제어부(180)가 제1 터치제스처를 객체의 이동 명령으로 인식하기 위한 미리 설정된 위치는 베젤 근처의 터치스크린(151) 좌하단 지점이다.6A, the start position 505 at which the user performs the first touch gesture 503 is the lower left point 605 of the touch screen 151 near the bezel. When the user holds the touch for a predetermined time at the lower left point 605 of the touch screen 151 and then performs the drag input 607 in the upper right direction of the touch screen 151, It can be recognized by the movement command of the object. In FIG. 6A, the preset position for the controller 180 to recognize the first touch gesture as a movement command of the object is the lower left point of the touch screen 151 near the bezel.

한편, 상기 미리 설정된 위치는 복수의 지점일 수 있으며, 사용자는 이를 설정할 수 있다. 제어부(180)는 객체의 이동 명령을 감지하기 위하여, 사용자 설정에 의해 미리 설정된 위치를 포함하는 소정의 영역에 행해지는 터치제스처를 감지할 수 있다. 즉, 사용자가 미리 설정된 위치의 인근에 터치제스처를 행하는 경우, 제어부(180)가 테치제스처를 객체의 이동 명령으로 인식하지 못하는 경우가 발생할 수 있으므로, 미리 설정된 위치의 인근 영역에 소정의 시간 이상 터치가 지속된 경우라도 이를 객체의 이동 명령으로 인식할 수 있도록 하기 위함이다.On the other hand, the preset position may be a plurality of points, and the user can set it. The controller 180 may sense a touch gesture performed in a predetermined area including a predetermined position by user setting, in order to sense an instruction to move the object. That is, when the user performs the touch gesture in the vicinity of the preset position, the control unit 180 may not recognize the turn gesture as the movement command of the object. Therefore, So that the object can be recognized as a movement command of the object.

예를 들어, 도 5의 (a)에서 터치스크린(151)의 우하단(505) 지점, 도 6의 (a)에서 터치스크린(151)의 좌하단(605) 지점은 미리 설정된 위치에 해당한다. 제어부(180)는 해당 지점(505, 605)의 정확한 위치에 터치제스처가 행해진 경우뿐만 아니라 해당 지점(505, 605)를 포함하는 소정의 영역에 터치제스처가 행해진 경우라도 터치제스처를 객체의 이동 명령으로 인식할 수 있다. 상기 해당 지점을 포함하는 소정의 영역의 면적은 사용자 설정 또는 제조자 의도에 따라 다양하게 결정될 수 있다.For example, in FIG. 5A, the lower right 505 point of the touch screen 151 and the lower left point 605 of the touch screen 151 in FIG. 6A correspond to a preset position . The control unit 180 determines whether or not the touch gesture is performed in a predetermined area including the points 505 and 605 as well as when the touch gesture is performed at the precise position of the corresponding point 505 or 605, . The area of the predetermined area including the corresponding point may be variously determined according to the user setting or the manufacturer's intention.

도 5 (a)에서 제1 터치제스처는 소정의 시간 이상 미리 설정된 위치에 터치 입력 및 특정 방향의 드래그 입력을 포함할 수 있다. 제1 터치제스처가 드래그(507) 방향으로 행해지면, 도 5의(b)에서 제어부(180)는 제1 터치제스처 입력을 객체 이동 명령으로 할 수 있다. 도 4를 참조하면, 제어부(180)는 객체 이동 명령을 인식함에 따라 객체를 제1 터치제스처의 방향(507)의 역방향로 이동(517)시킨다(S407). 제어부(180)는 객체의 이동이 터치스크린(151)에 연속적으로 디스플레이되도록 제어할 수 있다. 제1 터치제스처는 시작 위치(505)에서 드래그 길이만큼 포인터가 이동된 위치(515)까지 지속될 수 있다. 드래그 길이가 길어 이동된 위치(515)가 터치스크린(151)의 우측 상단 방향으로 갈수록 객체의 역방향 이동(517) 거리는 길어진다. 즉, 제1 터치제스처가 릴리스 되어 터치스크린(151)과 터치 접촉이 해제되기 전까지는, 제어부(180)는 사용자의 드래그하는 길이에 따라 객체의 이동 방향, 이동 거리가 조절되도록 제어할 수 있다. 반면, 도 5의 (c)를 참조하면, 사용자의 제1 터치제스처가 릴리스 된 경우, 객체는 이동을 멈추고 고정된다. 이때, 이동 객체의 과정 또는 고정된 상태에서 제어부(180)는 객체의 일부 영역이 터치스크린(151)상에 디스플레이되도록 제어할 수 있다.In FIG. 5 (a), the first touch gesture may include a touch input at a predetermined position for a predetermined time or more and a drag input in a specific direction. When the first touch gesture is performed in the direction of the drag 507, the control unit 180 in FIG. 5B may make the first touch gesture input an object movement command. Referring to FIG. 4, the controller 180 moves the object 517 in a direction opposite to the direction 507 of the first touch gesture as the object movement command is recognized (S407). The control unit 180 may control the movement of the object to be continuously displayed on the touch screen 151. [ The first touch gesture may continue to the position 515 where the pointer is moved by the drag length at the start position 505. [ The longer distance the object moves in the reverse direction 517 as the position 515 moved by the drag length becomes longer toward the upper right direction of the touch screen 151. [ That is, until the first touch gesture is released and the touch contact with the touch screen 151 is released, the controller 180 can control the moving direction and the moving distance of the object to be controlled according to the dragged length of the user. On the other hand, referring to (c) of FIG. 5, when the user's first touch gesture is released, the object is stopped and fixed. At this time, the control unit 180 may control a part of the object to be displayed on the touch screen 151 in the course of the moving object or in a fixed state.

즉, 도 5의 (a)에서 객체는 터치스크린(151)의 전체 영역에 디스플레이되어 있다. 이동 단말기(100)의 터치스크린(151)이 큰 경우, 사용자는 한 손으로 이동 단말기(100)를 파지한 채, 터치제스처를 통해 이동단말기(100)를 조작하기 곤란할 수 있다. 이후, 도 5의 (b) 및 도 5의 (c)에 따르면 객체가 제1 터치제스처에 따라 이동함에 따라 객체의 사이즈는 유지된 채, 터치스크린(151)의 일부 영역에 고정된다. 이에 따라 제어부(180)는 사용자가 한 손으로 터치제스처를 행하기에 곤란한 위치의 컨텐츠를 사용자의 손가락(503) 근처로 이동시킴으로써 한 손 조작이 용이하게 할 수 있다.That is, in (a) of FIG. 5, the object is displayed in the entire area of the touch screen 151. When the touch screen 151 of the mobile terminal 100 is large, it may be difficult for the user to operate the mobile terminal 100 through the touch gesture while holding the mobile terminal 100 with one hand. 5 (b) and 5 (c), the object is fixed to a partial area of the touch screen 151 while the object size is maintained as the object moves according to the first touch gesture. Accordingly, the control unit 180 can easily perform one-hand operation by moving the content at a position that is difficult for the user to perform the touch gesture with one hand to the vicinity of the user's finger 503.

도 5의 (d)를 참조하면, 사용자는 제2 터치제스처를 행하여, 해당 컨텐츠를 실행시킬 수 있다. 상기 제2 터치제스처는 제1 터치제스처와 구별되는 개념으로서, 객체를 이동시키기 위한 것이 아니라 객체를 실행시키기 위한 것이다. 도 5의 (d)에서 제2 터치제스처의 예시로 포인트 터치 입력이 도시되었으며 원하는 하이퍼 링크 지점(520)에 포인트 터치 입력을 행함으로써 해당 컨텐츠를 실행시킬 수 있다. 도 5의 (b) 내지 도 5의 (d)에서 객체의 이동으로 발생하는 영역(510)이 도시되었다. 상기 영역(510)은 객체의 이동 정도에 따라 면적, 모양이 변화할 수 있다. 상기 영역(510)에 대하여, 제어부(180)는 터치스크린(151)이 발광하지 않도록 제어할 수 있으며, 터치센서 역시 운용되지 않도록 제어할 수 있다.Referring to (d) of FIG. 5, the user can perform the second touch gesture and execute the content. The second touch gesture is a concept distinct from the first touch gesture, and is intended to execute the object, not to move the object. 5D, a point touch input is illustrated as an example of the second touch gesture, and the corresponding content can be executed by performing point touch input at a desired hyperlink point 520. [ 5B to 5D, a region 510 is shown which occurs due to the movement of the object. The area 510 may vary in area and shape depending on the degree of movement of the object. For the area 510, the controller 180 can control the touch screen 151 not to emit light, and can also control the touch sensor not to operate.

도 6은 본 발명의 실시예에 따른 객체의 다른 방향으로의 이동을 설명하기 위한 예시도이다. 도 6의 (a)을 참조하면, 도 5의 경우와 달리, 제1 터치제스처의 시작위치(605)가 터치스크린(151)의 좌하단 지점이다. 또한, 드래그 입력(607)의 방향이 터치스크린(151)의 우측 상단을 향하고 있다. 이에 따라 도 6의 (b)를 참조하면, 객체의 이동(617) 방향은 드래그 입력(607)의 역방향이 된다. 즉, 도 5의 (b)와 도 6의 (b)에서 보듯이 객체의 이동 방향은 제1 터치제스처의 시작 위치 및 드래그 방향 중 적어도 하나에 따라 다양하게 결정될 수 있다. 제어부(180)는 상기 제1 터치제스처를 객체의 이동 명령으로 인식할 수 있다. 도 4를 참조하면, 제어부(180)는 객체 이동 명령을 인식함에 따라 객체를 제1 터치제스처의 방향(607)의 역방향로 이동(617)시킨다(S407). 객체가 이동한 후에 제1 터치제스처가 릴리스 되면, 객체(501)는 고정된다. 이에 따라 객체가 이동하고 남은 자리에 영역(610)이 발생하며, 제어부(180)는 도 5에 대한 설명과 마찬가지로 영역(610)이 발광하지 않도록 제어할 수 있다.FIG. 6 is an exemplary diagram illustrating movement of an object in another direction according to an embodiment of the present invention. FIG. Referring to FIG. 6A, the start position 605 of the first touch gesture is the lower left point of the touch screen 151, unlike the case of FIG. Further, the direction of the drag input 607 is directed to the right upper end of the touch screen 151. [ Accordingly, referring to FIG. 6B, the direction of movement of the object 617 is opposite to that of the drag input 607. That is, as shown in FIGS. 5B and 6B, the direction of movement of the object may be variously determined according to at least one of a start position and a drag direction of the first touch gesture. The control unit 180 may recognize the first touch gesture as a movement command of the object. Referring to FIG. 4, the controller 180 moves the object to the opposite direction of the first touch gesture 607 (step S407) as recognizing the object movement command. If the first touch gesture is released after the object has been moved, the object 501 is fixed. Accordingly, the object moves and the area 610 is generated in the remaining place, and the control unit 180 can control the area 610 not to emit light as in the description of FIG.

도 7은 본 발명의 실시예에 따른 객체의 이동 방향 변경을 설명하기 위한 예시도이다. 도 7을 참조하면, 도 7의 (a)에서 도 5의 (a)와 마찬가지로, 터치스크린(151)의 전체 영역에 객체가 표시되어 있다. 제어부(180)는 제1 터치제스처(503)가 입력되면, 제1 터치제스처의 시작 위치(505) 및 드래그 입력(507) 방향 중 적어도 하나에 따라 제1 터치제스처를 객체 이동 명령으로 인식할 수 있다.FIG. 7 is an exemplary view for explaining an object moving direction change according to an embodiment of the present invention. FIG. Referring to FIG. 7, an object is displayed in the entire area of the touch screen 151, as in FIG. 7A to FIG. 5A. When the first touch gesture 503 is input, the controller 180 recognizes the first touch gesture as an object movement command according to at least one of the start position 505 and the drag input 507 direction of the first touch gesture have.

도 7의 (b)를 참조하면, 드래그 입력(507)의 방향에 대하여 역방향(517)으로 객체가 사이즈를 유지한 채 이동하여 터치스크린(151)의 일부 영역에 디스플레이 된다. 여기에서 객체는 이동 정도에 따라 터치스크린(151)에 표시되는 부분의 면적은 작아질 수 있으나, 객체가 표시된 부분의 컨텐츠 표시 사이즈는 동일하게 유지된다. 도 7의 (b)에서 객체는 도 5의 (b)와 마찬가지로 사이즈가 유지되며 이동되었으므로, 객체의 일부가 터치스크린(151) 상에 표시되었다. 제1 터치제스처는 시작 위치(505)에서 드래그 입력에 의해 포인터가 이동된 위치(515)까지 지속되며, 터치스크린(151)과의 터치 접촉이 유지되는 상태이다. 즉, 도 7의 (b)는 제1 터치제스처는 릴리스 되지 않았으므로, 객체가 터치스크린(151)의 일부 영역에 고정되기 전의 상태이다. 이때 사용자가 좌측방향(707)으로 제1 터치제스처 입력을 계속 진행하면, 제어부(180)는 이를 감지하여 도 7의 (c)와 같이 객체(501)를 왼쪽으로 이동시킨다. 이 경우, 객체는 도 7의 (b)와 높이는 동일하되, 도 7의 (a)와 좌우 폭이 동일하도록 이동되었다. 이어서, 사용자가 아래방향(717)으로 제1 터치제스처 입력을 계속 진행하면, 제어부(180)는 이를 감지하여 도 7의 (d)와 같이 객체를 아래쪽으로 이동시킨다.Referring to FIG. 7B, the object moves in the reverse direction 517 with respect to the direction of the drag input 507, and is displayed on a partial area of the touch screen 151. Here, the area of the portion displayed on the touch screen 151 may be reduced according to the degree of movement of the object, but the content display size of the portion where the object is displayed remains the same. In FIG. 7 (b), since the object is maintained in the same size as in FIG. 5 (b), a part of the object is displayed on the touch screen 151. The first touch gesture continues in a position 515 where the pointer is moved by the drag input at the start position 505 and the touch contact with the touch screen 151 is maintained. That is, since the first touch gesture is not released, FIG. 7 (b) shows a state before the object is fixed to a partial area of the touch screen 151. At this time, if the user continues to input the first touch gesture in the left direction 707, the controller 180 detects the movement and moves the object 501 to the left as shown in (c) of FIG. In this case, the object has the same height as that of FIG. 7 (b), but is shifted to the same width as that of FIG. 7 (a). Then, when the user continues the first touch gesture input in the downward direction 717, the controller 180 detects the movement and moves the object downward as shown in (d) of FIG.

도 7의 (a)에서 제어부(180)는 제1 터치제스처의 시작 위치 및 방향 중 적어도 하나에 따라 객체가 최초로 이동되도록 하였다. 또한, 일단 객체가 도 7의 (a)와 같이 이동된 이후에는 제어부(180)는 이어지는 도 7의 (b) 및 도 7의 (c)와 같이 제1 터치제스처의 방향에 따라 객체가 이동되도록 할 수 있다. 즉, 도 7에서 도시된 일련의 객체 이동 과정에서 제1 터치제스처는 방향이 변하였을 뿐 터치스크린(151)과 터치 접촉이 계속 유지되었으며, 릴리스 되지 않았다.In FIG. 7 (a), the controller 180 moves the object first according to at least one of a start position and a direction of the first touch gesture. After the object is moved as shown in FIG. 7A, the controller 180 moves the object according to the direction of the first touch gesture as shown in FIGS. 7B and 7C. can do. That is, in the series of object movement process shown in FIG. 7, the direction of the first touch gesture has changed and the touch contact with the touch screen 151 has been maintained and not released.

상술한 바와 같이, 제어부(180)는 제1 터치제스처(503)가 객체(501) 이동 명령인지, 객체(503)의 스크롤 명령인지 여부를 판단할 수 있고, 일단 제1 터치제스처(503)가 객체(501)의 이동명령으로 인식된 경우, 그 이후의 임의의 방향으로 입력되는 연속된 드래그 입력은 여전히 객체의 이동 명령으로 인식된다. 또한, 최초의 객체의 이동은 제1 터치제스처의 드래그 입력 방향(507)의 역방향(517)으로 개시되나, 이후의 객체의 이동은 드래그 입력(707, 717) 방향을 따른다.As described above, the controller 180 can determine whether the first touch gesture 503 is an object 501 movement command or a scroll command of the object 503, and once the first touch gesture 503 When recognized as a move instruction of the object 501, consecutive drag input inputted in any subsequent direction is still recognized as an object move instruction. Also, movement of the first object is initiated in the reverse direction 517 of the drag input direction 507 of the first touch gesture, but subsequent movement of the object follows the drag input 707, 717 direction.

제1 터치제스처의 방향이 상기 설명한 객체의 이동방향과 다른 방향으로 입력되면, 객체는 상기 다른 방향으로 이동될 수 있으며, 추후 제1 터치제스처가 릴리스 되면, 상기 릴리스 순간 객체가 위치한 터치스크린(151)의 영역 상에 객체가 고정된다.If the direction of the first touch gesture is input in a direction different from the direction of movement of the object described above, the object can be moved in the other direction. If the first touch gesture is later released, the touch screen 151 ≪ / RTI >

도 8은 본 발명의 실시예에 따른 제1 터치제스처의 시작위치에 따라 객체가 이동되는 것을 설명하기 위한 예시도이다.8 is an exemplary diagram illustrating how an object moves according to a start position of a first touch gesture according to an embodiment of the present invention.

도 8을 참조하면, 제어부(180)는 제1 터치제스처의 시작 위치를 감지하여 객체가 이동될 것인지 객체가 스크롤될 것인지를 결정할 수 있다. 도 8의 (a)에서 미리 설정된 위치인 터치스크린(151)의 우하단 지점(505)에 사용자가 제1 터치제스처(503)로서 소정의 시간 이상 터치 입력을 행하면, 제어부(180)는 제1 터치제스처를 객체의 이동 명령으로 인식할 수 있다. 이에 따라 제어부(180)는 도 8의 (b)와 같이 객체(501)를 터치스크린(150)의 일부 영역에 이동시킬 수 있다. 이때, 제어부(180)는 제1 터치제스처에 연속되는 드래그 입력(507)을 감지하여, 드래그 입력(507)의 방향의 역방향(517)으로 객체가 이동되도록 제어할 수 있다. 또한, 도 8의 (c)를 참조하면, 제어부(180)는 도 8의 (a)와 마찬가지로 미리 설정된 위치인 터치스크린(151)의 우하단 지점(505)에 소정의 시간 이상의 터치 입력인 제1 터치제스처(503)가 감지되면, 이를 객체의 이동 명령으로 인식할 수 있다. 이에 따라 제어부(180)는 도 8의 (d)와 같이 객체(501)를 터치스크린(150)의 일부 영역에 이동시킬 수 있다. 이때, 제어부(180)는 제1 터치제스처에 연속되는 드래그 입력(527)을 감지하여, 드래그 입력(527)의 방향의 역방향(537)으로 객체가 이동되도록 제어할 수 있다. 도 8에서 객체(501)가 이동되는 방식은 드래그 입력(507, 527)이 입력되기 전이라도 제어부(180)가 제1 터치제스처를 객체의 이동 명령으로 인식할 수 있다는 점에서 도 5의 경우와 차이가 있다. 도 8에서 미리 설정된 위치는 베젤 근처의 터치스크린(151)의 우하단 지점을 예시로 설명하였으나, 임의의 위치가 사용자로부터 미리 설정될 수 있으며, 복수개의 위치가 설정될 수도 있다.Referring to FIG. 8, the controller 180 can determine whether the object is to be moved or scrolled by sensing the start position of the first touch gesture. When the user touches the lower right point 505 of the touch screen 151, which is a preset position in FIG. 8A, as a first touch gesture 503 for a predetermined time or longer, the controller 180 controls the first The touch gesture can be recognized as a movement command of the object. Accordingly, the controller 180 can move the object 501 to a part of the touch screen 150 as shown in FIG. 8B. At this time, the controller 180 senses the drag input 507 continuous to the first touch gesture, and controls the object to move in the reverse direction 517 of the direction of the drag input 507. 8 (c), the controller 180 controls the touch panel 151 to move the touch panel 151 to the lower right point 505 of the touch screen 151, If the 1-touch gesture 503 is detected, it can be recognized as a move command of the object. Accordingly, the controller 180 may move the object 501 to a part of the touch screen 150 as shown in FIG. 8D. At this time, the controller 180 senses the drag input 527 continuous to the first touch gesture, and controls the object to move in the reverse direction 537 of the direction of the drag input 527. The method of moving the object 501 in FIG. 8 is similar to the case of FIG. 5 in that the controller 180 can recognize the first touch gesture as a movement command of the object even before the drag input 507, 527 is input There is a difference. 8, the lower right point of the touch screen 151 near the bezel is illustrated as an example. However, an arbitrary position may be preset by a user, and a plurality of positions may be set.

도 9는 본 발명의 실시예에 따른 제1 터치제스처의 드래그 방향에 따라 객체가 이동되는 것을 설명하기 위한 예시도이다.FIG. 9 is an exemplary diagram illustrating how an object is moved along a drag direction of a first touch gesture according to an embodiment of the present invention. FIG.

도 9의 (a)를 참조하면, 터치스크린(151)에 객체(501)가 디스플레이된 상태에서 사용자로부터 드래그 입력(547)이 입력되면, 제어부(180)는 이를 객체 이동 명령으로 인식할 수 있다. 즉, 제1 터치제스처가 객체 상의 임의의 지점(535)에서 시작하는 드래그 입력(547)이고 제어부(180)는 드래그 입력(547)의 방향을 판단하여 이를 객체(501)의 이동명령으로 인식할 수 있다. 또한, 제어부(180)는 제1 터치제스처로 상기 드래그 입력(547)이 입력되면, 이를 객체의 스크롤 명령으로 인식할 수도 있다. 이하, 도 9의 (b)를 참조하여, 제어부(180)가 드래그 입력(547)을 객체의 이동명령 또는 객체의 스크롤 명령으로 인식하는 구체적인 방법의 예를 설명한다.9A, when a drag input 547 is input from a user in a state where an object 501 is displayed on the touch screen 151, the control unit 180 can recognize the drag input 547 as an object move command . That is, the first touch gesture is a drag input 547 starting at an arbitrary point 535 on the object, and the controller 180 determines the direction of the drag input 547 and recognizes the direction of the drag input 547 as a move command of the object 501 . Also, when the drag input 547 is input to the first touch gesture, the controller 180 may recognize the drag input 547 as a scroll command of the object. Hereinafter, an example of a concrete method of recognizing the drag input 547 as a move instruction of an object or a scroll instruction of an object will be described with reference to FIG. 9 (b).

도 9의 (b)를 참조하면, 터치스크린(151) 상에 수평선(531) 과 수직선(532)를 포함하는 가상의 좌표가 도시되었다. 상기 좌표는 설명의 편의를 위한 것이고, 실제 터치스크린(151) 상에 표시되지 않을 수 있다. 또는 사용자가 드래그 입력 각도를 설정 하는 경우, 제어부(180)는 드래그 입력 각도 설정을 위한 설정 창으로 상기 좌표가 터치스크린(151)에 표시되도록 제어할 수도 있다.Referring to FIG. 9 (b), virtual coordinates including a horizontal line 531 and a vertical line 532 are shown on the touch screen 151. FIG. The coordinates are for convenience of explanation and may not be displayed on the actual touch screen 151. [ Alternatively, when the user sets the drag input angle, the control unit 180 may control the display screen to display the coordinates on the touch screen 151 as a setting window for setting the drag input angle.

상기 좌표의 중심점은 드래그 입력(547)의 시작 지점이고 지점 (545)는 드래그 입력(547)의 종료지점이다. 제어부(180)는 사전 설정에 의해 특정 방향의 드래그 입력이 입력되면 이를 객체의 이동 명령으로 인식할 수 있다. 예를 들어, 사용자는 드래그 입력(547)이 각도 a(533, 534)의 범위에 해당 하는 방향으로 입력되는 경우, 제어부(180)가 이를 객체(501)의 이동 명령으로 인식하도록 설정할 수 있다. 반면, 드래그 입력(547)이 각도 a(533, 534)의 범위를 벗어나, 각도 b(543, 544) 범위를 지나는 경우, 제어부(180)가 이를 객체의 스크롤 명령으로 인식하도록 설정할 수도 있다.The center point of the coordinates is the start point of the drag input 547 and the point 545 is the end point of the drag input 547. The control unit 180 can recognize the drag input of a specific direction as a move command of the object by presetting. For example, the user can set the controller 180 to recognize the drag input 547 as a move command of the object 501 when the drag input 547 is input in a direction corresponding to the range of the angles a 533 and 534. On the other hand, when the drag input 547 goes out of the range of the angles a 533 and 534 and passes the range of the angles b 543 and 544, the controller 180 may set it to recognize it as a scroll command of the object.

이때, 드래그 입력(547)이 수평선(531)과 만나는 각도 b(544)의 범위를 지나는 경우, 제어부(180)는 객체가 수평방향으로 스크롤 되도록 제어할 수 있다. 만약, 드래그 입력(547)이 수직선(532)에 만나는 각도 b(543)의 범위를 지나면, 제어부(180)는 수직 방향으로 객체(501)가 스크롤되도록 제어할 수 있다. 또한, 제어부(180)는 드래그 입력(547)이 수평선(531), 수직선(532)를 지나는 경우, 이는 각각 수평 방향, 수직 방향의 객체 스크롤 명령으로 인식할 수 있다. 상기 각도 a(533, 534) 및 각도 b(543, 544)의 크기는 사용자 설정에 의해 다양하게 설정될 수 있다. 또한, 좌표의 제2사분면에서의 설정만을 설명하였으나, 그 외에 다양한 터치스크린(151) 상의 영역에도 상기 실시예가 적용될 수 있다.At this time, when the drag input 547 passes the range of the angle b 544 at which the horizontal line 531 meets the angle b 544, the control unit 180 can control the object to scroll in the horizontal direction. If the drag input 547 passes the range of the angle b 543 at which the vertical line 532 meets the angle b 543, the controller 180 can control the object 501 to scroll in the vertical direction. When the drag input 547 passes through the horizontal line 531 and the vertical line 532, the control unit 180 can recognize the object as a horizontal or vertical object scroll command. The sizes of the angles a 533 and 534 and the angles b 543 and 544 may be variously set according to the user's setting. In addition, although only the setting in the second quadrant of the coordinates has been described, the embodiment may be applied to various areas on the touch screen 151. [

도 9의 (c)는, 상기 예에서 드래그 입력(547)의 방향이 각도 a(533,534)의 범위에 포함되어 제어부(180)가 드래그 입력(547)을 객체(501)의 이동 명령으로 인식한 경우를 설명하기 위한 예시도이다. 도 9의 (c)에서 제어부(180)는 드래그 입력(547)을 객체(501)의 이동 명령으로 인식하고, 드래그 입력(537) 방향의 역방향(517)으로 객체(501)가 이동되도록 제어할 수 있다.9C shows a case where the direction of the drag input 547 is included in the range of the angle a 533 and 534 and the control unit 180 recognizes the drag input 547 as a move command of the object 501 And FIG. 9C, the controller 180 recognizes the drag input 547 as a movement command of the object 501 and controls the object 501 to move in the reverse direction 517 in the direction of the drag input 537 .

도 9의 (d)는, 상기 예에서 드래그 입력(547)의 방향이 각도 b(543, 544)의 범위에 포함되어, 제어부(180)가 드래그 입력(547)을 객체(501)의 스크롤 명령으로 인식한 경우를 설명하기 위한 예시도이다. 도 9의 (a) 및 (d)를 참조하면, 제어부(180)는 드래그 입력(547) 시작지점(535)에서 종료지점(555)까지 이어진 경우, 이의 역방향(557)으로 드래그 입력(547)을 포함하는 객체(501)의 특정 영역이 스크롤 되도록 제어할 수 있다.9D shows a case where the direction of the drag input 547 is included in the range of the angles b 543 and 544 in the above example and the controller 180 sets the drag input 547 to the scroll command As shown in Fig. 9A and 9D, when the control unit 180 reaches from the start point 535 to the end point 555 of the drag input 547, the drag input 547 is moved to the reverse direction 557 thereof. So that the specific area of the object 501 including the object 501 can be scrolled.

도 10은 본 발명의 실시예에 따른 객체의 스크롤을 설명하기 위한 예시도이다. 도 10의 (a)를 참조하면, 이동 단말기(100)는 사용자로부터 시작 위치(565)에서 제1 터치제스처(503)로 드래그 입력(567)을 입력 받는다. 제어부(180)는 시작위치(565)가 객체(501)의 이동으로 인식하기 위한 미리 설정된 위치가 아닌 경우, 상기 제1 터치제스처(503)을 객체(501)의 스크롤 명령으로 인식할 수 있다. 또한, 제어부(180)는 드래그 입력(567)의 방향이 미리 설정된 각도 범위에 포함되는 방향이 아닌 경우, 상기 드래그 입력(567)을 객체(501)의 스크롤 명령으로 인식할 수 있다. 또는 제어부(180)는 상기 시작위치(565) 및 드래그 입력(567)의 방향을 모두 제1 터치제스처의 구성요소로 고려하여 이를 객체의 스크롤 명령으로 인식할 수도 있다.10 is an exemplary diagram for explaining scrolling of an object according to an embodiment of the present invention. 10A, the mobile terminal 100 receives a drag input 567 from the user at the start position 565 to the first touch gesture 503. The control unit 180 can recognize the first touch gesture 503 as a scroll command of the object 501 when the start position 565 is not a preset position for recognizing the movement of the object 501. [ The control unit 180 can recognize the drag input 567 as a scroll command of the object 501 when the direction of the drag input 567 is not included in the preset angle range. Alternatively, the control unit 180 may consider the direction of the start position 565 and the drag input 567 as a component of the first touch gesture and recognize it as a scroll instruction of the object.

도 10의 (b)를 참조하면, 드래그 입력(567)이 지점(575)에서 종료되면, 이에 대응하여, 제어부(180)는 객체의 특정 영역이 드래그 입력(567)의 역방향(577)으로 객체가(501)의 특정 영역이 스크롤 되도록 제어할 수 있다.10B, when the drag input 567 ends at point 575, the control unit 180 determines that the specific area of the object is the object in the reverse direction 577 of the drag input 567, It is possible to control so that the specific area of the character 501 is scrolled.

상기 특정 영역은 디스플레이되는 영역의 면적 이상으로 정보를 포함거나, 복수의 페이지를 포함하는 영역으로, 이 중 일부 정보 또는 일부 페이지를 디스플레이 하고 있는 영역을 말한다. 제어부(180)는 스크롤 명령에 의해 스크롤 명령 전에 디스플레이된 정보 또는 페이지를 변경하여, 다른 정보 또는 다른 페이지가 디스플레이되도록 제어할 수 있다.The specific area refers to an area that includes information or an area including a plurality of pages, and displays some information or a part of the pages. The control unit 180 may change the information or page displayed before the scroll command by the scroll command so that other information or another page is displayed.

도 11은 본 발명의 실시예에 따른 객체의 이동 중, 객체의 사이즈 조절을 설명하기 위한 예시도이다. 도 11은 제1 터치제스처에 따라 객체가 이동하되, 이동 시, 특히 객체의 사이즈가 축소되어 이동하는 것이 도시되었다. 도 11의 (b)를 참조하면, 제1 터치제스처(503)의 드래그 입력(507)의 방향에 대하여 역방향(517)으로 객체(801)가 이동하였다. 여기에서 객체는 도 5의 (b)에서의 객체(501)보다 사이즈가 축소되어 도시되었다. 즉, 사용자 사전 설정에 따라, 제어부(180)는 객체가 발향(517)로 이동하며 사이즈가 축소되도록 제어할 수 있다. 드래그 입력(507)의 길이에 따라 객체(801)의 축소량은 조절될 수 있다. 즉, 드래그 입력의 길이가 길면, 객체는 더 많이 축소되도록 사전 설정될 수 있다. 이 경우, 도 5의 실시예와 달리 객체가 이동하여도 제어부(180)는 터치스크린(151)의 일부 영역에 객체(801)의 전체가 디스플레이되도록 제어할 수 있다. 도 11의 (c) 및 도 11의 (d)의 경우, 도 5의 (c) 및 도 5의 (d)에서 설명한 바와 같이 제1 터치제스처가 릴리스되면, 제어부(180)는 객체를 고정시키고, 이후, 제2 터치제스처가 감지되면 해당 컨텐츠를 실행하도록 제어할 수 있다.FIG. 11 is an exemplary view for explaining object size adjustment during movement of an object according to an embodiment of the present invention. Referring to FIG. FIG. 11 shows that the object moves according to the first touch gesture, but moves when the moving object, in particular, the object is reduced in size. Referring to FIG. 11B, the object 801 moves in the opposite direction 517 with respect to the direction of the drag input 507 of the first touch gesture 503. Here, the object is shown reduced in size from the object 501 in FIG. 5 (b). That is, according to the user presetting, the controller 180 may control the object to move to the smell 517 and reduce the size. The amount of reduction of the object 801 can be adjusted according to the length of the drag input 507. [ That is, if the length of the drag input is long, the object can be preset to be further reduced. In this case, unlike the embodiment of FIG. 5, the control unit 180 can control the entire object 801 to be displayed on a part of the area of the touch screen 151, even if the object moves. 11C and 11D, when the first touch gesture is released as described with reference to FIGS. 5C and 5D, the control unit 180 fixes the object , And then, when the second touch gesture is sensed, control can be exercised to execute the corresponding content.

도 12는 본 발명의 실시예에 따른 객체의 일부 영역 확대 방식을 설명하기 위한 예시도이다. 도 12는 예를 들어 종이 페이지의 한쪽 끝을 고정한 채 다른 한 쪽 끝을 밀어 올리면 양쪽 끝 사이의 영역이 밀려 올라와 시각 거리가 가까워 지는 원리를 이용한 실시예를 설명하기 위한 예시도이다. 상기 예에서 종이 페이지는 도 12의 실시예에서 객체인 인터넷 웹 페이지로 적용될 수 있고, 시각거리가 가까워 지는 효과는 객체의 일부 영역이 확대되는 것으로 적용될 수 있다.12 is an exemplary view for explaining a method of enlarging a partial region of an object according to an embodiment of the present invention. FIG. 12 is an exemplary view for explaining an embodiment in which, for example, when one end of a paper page is fixed while the other end is pushed up, a region between both ends is pushed up so that the visual distance approaches. In the above example, the paper page can be applied as an Internet web page, which is an object in the embodiment of FIG. 12, and the effect of approaching the visual distance can be applied such that a partial area of the object is enlarged.

도 12의 (a)를 참조하면, 도 5의 (a)와 마찬가지로 사용자로부터 제1 터치제스처가 행해진다. 이때, 제어부(180)는 드래그 입력(507)의 길이만큼 제1 터치제스처의 시작 위치(505)에서 도 12의 (b)와 같이 포인터가 이동된 위치(915)까지 객체의 일부 영역에 대한 확대 명령을 감지할 수 있다. 즉, 객체에 대한 드래그 길이는 상기 예에서 종이 페이지를 밀어 올리는 것에 대응된다. 상기 예에서 고정된 한쪽 끝은 도 12의 (b)의 터치스크린(151)의 왼쪽 상단에 대응된다. 상기 예에서 고정된 한쪽 끝은 밀어 올리는 쪽 장력에 대응하여 반대 방향으로 종이를 밀어 올리게 되는 데 이와 동일한 효과가 도 12의 (b)와 같이 객체(901)에 적용될 수 있다. 제1 터치제스처의 드래그 방향(507) 및 거리가 감지되면, 제어부(180)는 터치스크린(151)의 왼쪽 상단과 제1 터치제스처(503)의 드래그 입력(507)이 끝나는 부분 사이에 표시되는 객체의 일부 영역이 확대되어 디스플레이 되도록 제어할 수 있다. 즉, 제어부(180)는 드래그 입력(507) 방향 및 터치스크린(151)의 왼쪽 상단에서 드래그 입력(507) 방향의 반대 방향(917)을 기준으로 양 방향 사이의 객체를 확대하여 디스플레이 할 수 있고, 확대의 정도는 드래그 입력(507)의 길이에 따라 조절되도록 제어할 수 있다. 또한, 제어부(180)는 포인터의 위치(915) 및 드래그 길이를 감지하여, 이를 기준으로 드래그 입력된 거리를 포함하는 영역(910)에서 객체가 디스플레이되지 않도록 제어할 수 있다. 제1 터치제스처로 터치스크린(151)의 하단을 밀어 올리는 동작을 행하여, 객체의 일부 영역이 확대된 후, 사용자는 제1 터치제스처를 릴리스할 수 있다. 제1 터치제스처가 릴리스 되면, 객체는 일부 영역이 확대되어 표시된 채로 고정된다. 이후, 도 12의 (c)와 같이 사용자가 객체의 확대된 일부 영역 중 특정 컨텐츠에 제2 터치제스처(925)를 행하면, 제어부(180)는 해당 컨텐츠가 실행되도록 제어할 수 있다.Referring to Fig. 12 (a), the first touch gesture is performed from the user as in Fig. 5 (a). At this time, the controller 180 controls the enlargement of the partial area of the object from the start position 505 of the first touch gesture to the position 915 in which the pointer is moved as shown in FIG. 12B by the length of the drag input 507 Command can be detected. That is, the drag length for the object corresponds to pushing up the paper page in the above example. The one end fixed in the above example corresponds to the upper left of the touch screen 151 of FIG. 12 (b). In this example, the fixed end pushes the paper in the opposite direction corresponding to the pushing-up tension, and the same effect can be applied to the object 901 as shown in FIG. 12 (b). When the drag direction 507 and the distance of the first touch gesture are sensed, the control unit 180 is displayed between the upper left corner of the touch screen 151 and the end of the drag input 507 of the first touch gesture 503 It is possible to control so that a part of the object is enlarged and displayed. That is, the control unit 180 can enlarge and display the object between the two directions with respect to the drag input 507 and the opposite direction 917 of the drag input 507 in the upper left corner of the touch screen 151 , And the degree of magnification can be controlled to be adjusted in accordance with the length of the drag input 507. In addition, the controller 180 may detect the position of the pointer 915 and the drag length, and control the object to be displayed in the area 910 including the dragged distance based on the detected position. The first touch gesture is performed to push up the lower end of the touch screen 151. After the partial area of the object is enlarged, the user can release the first touch gesture. When the first touch gesture is released, the object is enlarged and fixed with some areas being displayed. 12 (c), when the user performs the second touch gesture 925 on the specific content among the enlarged partial areas of the object, the controller 180 can control the corresponding content to be executed.

도 13은 본 발명의 실시예에 따라 이동된 객체의 디스플레이 영역 외에 디스플레이되는 다른 객체를 설명하기 위한 예시도이다. 도 13의 (a)를 참조하면, 도 5의 (a)와 마찬가지로 사용자로부터 제1 터치제스처가 행해진다. 이때, 제어부(180)는 객체(501)를 드래그 입력(507)의 길이에 대응하여 드래그 방향의 역방향으로 이동 시키고, 도 5의 (b)와 같이 터치스크린(151)의 일부 영역에 객체의 일부가 디스플레이 되도록 제어할 수 있다. 객체가 이동함에 따라 발생하는 영역(510)이 도 5에서는 다른 객체를 디스플레이 하지 않고 비어 있는 영역이었다. 반면, 도 13의 (b)를 참조하면, 사전 설정에 따라 제어부(180)는 도 5의 (b)에서 객체의 이동으로 발생하는 영역의 일부에 다른 객체가 표시되도록 제어할 수 있다. 예를 들어 제어부(180)는 이동된 객체가 위치한 영역에 접하는 영역에 다른 객체가 표시되도록 제어하고, 나머지 영역(1010)에 각 객체를 식별하기 위한 식별자가 디스플레이 되도록 제어할 수 있다. 즉, 사용자 사전 설정에 따라, 제어부(180)는 객체(501)가 이동되어 디스플레이된 영역 주변의 영역에 적어도 하나의 다른 객체가 디스플레이되도록 제어할 수 있다. 제어부(180)는 객체에 해당 하는 웹 페이지가 디스플레이 된 영역의 윗부분에 웹 페이지(501) 실행 이전에 실행한 웹 페이지(1001, 1011)가 차례대로 디스플레이되도록 제어할 수 있다.13 is an exemplary view for explaining another object displayed in addition to the display area of the moved object according to the embodiment of the present invention. Referring to FIG. 13A, a first touch gesture is performed from the user as in FIG. 5A. At this time, the controller 180 moves the object 501 in a direction opposite to the drag direction corresponding to the length of the drag input 507, and, as shown in FIG. 5B, Can be displayed. The area 510 generated as the object moves is an empty area without displaying other objects in Fig. On the other hand, referring to FIG. 13 (b), the controller 180 may control to display another object in a part of the area generated by the movement of the object in FIG. 5 (b). For example, the control unit 180 may control the display of another object in an area in which the moved object is located, and may display an identifier in the remaining area 1010 to identify each object. That is, according to the user presetting, the control unit 180 can control the display of at least one different object in the area around the displayed area by moving the object 501. The control unit 180 can control the display of the web pages 1001 and 1011 executed before the execution of the web page 501 in order above the area where the web page corresponding to the object is displayed.

도 13의 (b)에서, 객체 위에 다른 객체가 수직으로 쌓이는 형태로 객체들이 디스플레이되었으나, 사용자 설정에 따라 다양한 디자인으로 객체들이 배열될 수 있으며, 식별자의 표시 여부 역시 사용자 설정에 따라 결정될 수 있다.In (b) of FIG. 13, objects are displayed in a form such that other objects are stacked vertically on the object. However, objects can be arranged in various designs according to the user's setting, and the display of the identifiers can also be determined according to the user setting.

도 13의 (c)의 경우, 도 13의 (a)에서 제1 터치제스처의 드래그 입력(507)에 의해 제어부(180)가 도 13의 (b)와 같이 객체를 이동시킨 후, 제1 터치제스처가 아직 릴리스 되지 않은 채 다른 객체(1001, 1011)의 디스플레이 영역을 조절하는 방식을 설명하기 위한 예시도이다. 도 13의 (c)를 참조하면, 도 13의 (b)에 대비하여, 제1 터치제스처를 통해 포인터가 터치스크린(151)과 접촉하는 위치가 아래로 이동되어 도시되었다. 이에 따라 다른 객체(1001, 1011)들이 디스플레이 되는 영역도 아래쪽으로 확대되어 도시되었다. 즉, 제1 터치제스처가 터치스크린(151)과 터치 접촉이 해제 되지 않은 상태에서 다른 방향으로 이동하면, 도 7에서 상술한 바와 같이 제어부(180)는 객체가 이동 방향으로 움직이도록 제어할 수 있다. 마찬가지로 도 13의 (c) 역시 도 13의 (b)에서의 포인터가 아래 방향으로 드래그 되었으므로, 제어부(180)는 객체(501)가 아래방향으로 이동되도록 제어할 수 있다. 이에 따라, 제어부(180)는 다른 객체를 디스플레이 하지 않는 도 7의 (d)의 경우, 객체의 상단 영역(510)이 확대되도록 제어할 수 있으며, 도 13의 (c)의 경우에는 확대되는 영역만큼 다른 객체의 디스플레이 영역이 확대되도록 제어할 수 있다. 또한, 사전 설정에 따라 다른 객체의 디스플레이 영역이 정해져 있는 경우, 제어부(180)는 다른 객체의 디스플레이 영역이 더 이상 확대되지 않고 또 다른 객체가 디스플레이되도록 제어할 수도 있다.13 (c), after the control unit 180 moves the object as shown in FIG. 13 (b) by the drag input 507 of the first touch gesture in FIG. 13 (a) And the display area of the other objects 1001 and 1011 is adjusted without releasing the gesture yet. Referring to FIG. 13 (c), in contrast to FIG. 13 (b), the position at which the pointer contacts the touch screen 151 through the first touch gesture is shown moved down. Accordingly, the area where the other objects 1001 and 1011 are displayed is enlarged downward. That is, if the first touch gesture moves in a different direction without releasing the touch contact with the touch screen 151, the control unit 180 may control the object to move in the moving direction as described above with reference to FIG. 7 . Likewise, since the pointer in FIG. 13 (c) is dragged downward in FIG. 13 (b), the controller 180 can control the object 501 to move downward. 7 (d) in which no other object is displayed, the controller 180 may control the enlargement of the upper region 510 of the object, and in the case of FIG. 13 (c) It is possible to control the display area of the other objects to be enlarged. In addition, if the display area of another object is determined according to the preset, the controller 180 may control the display area of another object to be displayed so that another object is not enlarged any more.

도 14은 본 발명의 실시예에 따른 객체의 이동 거리에 따라 디스플레이되는 다른 객체의 수량 변화를 설명하기 위한 예시도이다. 도 14의 (a)를 참조하면, 터치스크린(151)에 이미지가 객체(1101)로서 디스플레이 되어있다. 도 5의 (a)와 마찬가지로 제1 터치제스처(503)가 베젤 근처 터치스크린(151)의 우하단에서 시작(505) 되어 터치스크린(151)의 좌측 상단 방향으로 드래그 입력이 행해진 경우(507), 도 14의 (b)와 같이 제어부(180)는 축소된 객체(1111)가 터치스크린(151)의 일부 영역에 디스플레이되도록 제어할 수 있다.FIG. 14 is an exemplary diagram illustrating a change in the quantity of another object displayed according to the movement distance of the object according to the embodiment of the present invention. FIG. Referring to FIG. 14 (a), an image is displayed as an object 1101 on the touch screen 151. 5A, when the first touch gesture 503 starts at the lower right end of the touch screen 151 near the bezel 505 and the drag input is performed in the upper left direction of the touch screen 151 (507) The control unit 180 may control the reduced object 1111 to be displayed on a partial area of the touch screen 151 as shown in FIG. 14 (b).

상술한 바와 같이 사용자 설정에 따라 제어부(180)는 객체의 사이즈를 유지하면서 이동시킬 수 있고, 객체의 사이즈를 조절하며 이동시킬 수도 있다. 특히, 사용자는 객체의 속성에 따라 객체의 사이즈 유지여부를 사전 설정할 수 있다. 예를 들어 도 14과 같이 이미지는 링크로 연결된 페이지가 없으며, 전체로 디스플레이 되어야 의미가 있으므로, 사용자는 이와 같은 객체의 경우 이동 시 사이즈가 축소되되, 전체가 디스플레이 되도록 사전 설정할 수 있다.As described above, according to the user's setting, the controller 180 can move while maintaining the size of the object, and can adjust and move the size of the object. In particular, the user can preset whether to maintain the size of the object according to the attribute of the object. For example, as shown in FIG. 14, there is no page linked to the image as shown in FIG. 14, and since it is meaningful to display the entire page, the user can preset the size of the object to be displayed while being reduced.

도 14의 (b)를 참조하면, 제1 터치제스처에 의해 축소된 객체(1111)가 터치스크린(151)의 일부 영역에 디스플레이 되면, 객체의 이동으로 발생하는 영역에 제어부(180)는 객체와 관련된 어플리케이션(1110)의 아이콘이 적어도 하나 디스플레이 되도록 제어할 수 있다. 상기 객체와 관련된 어플리케이션은 사용자에 의해 사전 설정될 수 있다. 도 14의 (b)의 경우 객체가 이미지인 경우, 이와 관련된 정보를 기록하기 위한 메모 어플리케이션, 이미지를 공유하기 위한, 메시지, 이 메일, 블루투스 및 이미지 편집을 위한 어플리케이션이 예시도 도시되었다. 제1 터치제스처가 릴리스 되지 않은 채, 도 14의 (a)에서 드래그 입력(507)에 의해 이동된 포인터 위치(1105)에서 또다시 드래그 입력(1107)이 행해지면, 제어부(180)는 드래그 입력(1107)의 거리에 대응하여 도 14의 (c)와 같이 추가적으로 객체를 축소 시킬 수 있다. 이에 따라, 제어부(180)는 객체와 관련된 어플리케이션(1110)의 아이콘들의 사이즈가 객체가 축소된 만큼 확대되어 디스플레이 되도록 제어할 수 있다. 또는 사전 설정에 따라 디스플레이 될 수 있는 아이콘 사이즈가 정해져 있는 경우, 제어부(180)는 아이콘 사이즈는 확대하지 않고, 관련 어플리케이션의 개수가 추가되어 새로운 아이콘을 추가로 디스플레이되도록 제어할 수 있다. 제어부(180)는 도 14의 (b)에서 설명한 디스플레이 되는 아이콘이 나타내는 관련 어플리케이션 및 도 14의 (c)에서 설명한 추가되는 어플리케이션의 우선 순위를 결정할 수 있다. 예를 들어, 사용자가 선호하는 어플리케이션이 편집 관련, 공유 관련, 메모 관련 순서인 경우, 제어부(180)는 객체의 이동으로 발생하는 영역의 면적에 따라 상기 순서대로 어플리케이션 관련 아이콘이 디스플레이되도록 제어할 수 있다.Referring to FIG. 14B, when the object 1111 reduced by the first touch gesture is displayed on a partial area of the touch screen 151, the control unit 180 controls the object So that at least one icon of the associated application 1110 is displayed. The application associated with the object may be preset by the user. In the case of FIG. 14 (b), an example application is also shown for a memo application for recording information related thereto, an application for sharing images, a message, e-mail, Bluetooth and image editing when the object is an image. If the dragging input 1107 is again performed at the pointer position 1105 shifted by the drag input 507 in Fig. 14A without releasing the first touch gesture, the control unit 180 sets the drag input It is possible to further reduce the object as shown in FIG. 14 (c) corresponding to the distance of the object 1107. Accordingly, the control unit 180 can control the size of the icons of the application 1110 related to the object to be enlarged and displayed by the reduced size of the object. Or if the size of the icon that can be displayed according to the preset setting is determined, the controller 180 can control to display the new icon additionally by adding the number of related applications without enlarging the icon size. The control unit 180 can determine the priority of the added application described in Fig. 14 (b) and the added application described in Fig. 14 (c). For example, if the user's preferred application is an edit-related, sharing-related, or memo-related sequence, the control unit 180 may control the application-related icons to be displayed in the order according to the area of the area generated by the movement of the object have.

도 14의 (d)를 참조하면, 제1 터치제스처가 릴리스 되면, 객체의 위치는 고정되고, 디스플레이되는 어플리케이션의 아이콘도 확정이 된다. 이에 따라 사용자가 제2 터치제스처로 객체에 포인트 터치(1115)를 행하여 객체를 지정한 후, 드래그 입력을 행하여 특정 어플리케이션의 아이콘에서 터치 드래그를 릴리스 하면, 제어부(180)는 터치 드래그가 릴리스 된 위치에 해당하는 어플리케이션에서 객체가 바로 실행되도록 제어할 수 있다. 즉, 도 14의 (d)에서 제2 터치제스처는 객체에 대한 소정의 시간 이상 포인트 터치 및 특정 어플리케이션의 아이콘까지 드래그하는 동작일 수 있다. 예를 들어 메시지 어플리케이션에 제2 터치제스처가 드래그 되어 릴리스 되면, 제어부(180)는 메시지 어플리케이션이 실행되도록 제어함과 동시에, 객체를 메시지 창에 바로 붙여 넣기 동작이 수행되도록 제어할 수 있다.Referring to (d) of FIG. 14, when the first touch gesture is released, the position of the object is fixed, and the icon of the displayed application is also determined. Accordingly, if the user designates the object by performing point touch 1115 on the object with the second touch gesture, and then performs drag input to release the touch drag from the icon of the specific application, the control unit 180 displays the touch drag It is possible to control the object to be executed immediately in the corresponding application. 14 (d), the second touch gesture may be an operation of dragging a point touch and an icon of a specific application for a predetermined time or longer to the object. For example, when the second touch gesture is dragged and released to the message application, the control unit 180 controls the message application to be executed and controls the paste operation of the object directly in the message window.

도 15는 본 발명에 실시예에 따른 객체와 같은 그룹에 속하는 다른 객체가 디스플레이되는 방식을 설명하기 위한 예시도이다.15 is an exemplary view for explaining a method of displaying other objects belonging to the same group as the object according to the embodiment of the present invention.

도 15의 (a)를 참조하면, 도 14의 (a) 및 도 14의 (b)와 마찬가지로 제어부(180)는 제1 터치제스처를 객체(1101)의 이동 명령으로 인식하고, 도 15의 (b)와 같이 사이즈가 축소되며 이동된 객체(1111)가 디스플레이 되도록 제어할 수 있다. 이때, 객체의 이동으로 발생하는 터치스크린(151) 상의 영역에 제어부(180)는 객체와 관련된 다른 객체(1210)가 적어도 하나 디스플레이 되도록 제어할 수 있다. 상기 다른 객체(1210)는 특히, 객체가 포함되는 그룹에 속하는 다른 객체일 수 있다. 예를 들어, 객체가 포함되는 그룹이 갤러리 어플리케이션이고, 객체가 그 중 하나의 이미지에 해당하는 경우, 다른 객체는 갤러리에 속하는 객체와 다른 이미지일 수 있다. 또한, 객체가 음악 파일인 경우, 객체가 포함되는 그룹이 플레이 리스트일 수 있으며, 다른 객체들은 플레이 리스트에 포함되는 객체 외의 음악 파일일 수 있다. 제어부(180)는 객체가 이동하며 축소되는 정도에 따라 터치스크린(151) 상에 상기 다른 객체의 사이즈 및 개수 중 적어도 하나가 조절되도록 제어할 수 있다.Referring to FIG. 15A, the controller 180 recognizes the first touch gesture as a movement instruction of the object 1101, as in FIGS. 14A and 14B, b), and the moved object 1111 is displayed. At this time, the controller 180 may control the display unit 150 to display at least one other object 1210 related to the object on the touch screen 151, which is caused by the movement of the object. The other object 1210 may in particular be another object belonging to the group in which the object is contained. For example, if the group containing the object is a gallery application and the object corresponds to one of the images, the other object may be an image different from the object belonging to the gallery. In addition, when the object is a music file, the group including the object may be a play list, and the other objects may be music files other than objects included in the play list. The control unit 180 may control at least one of the size and the number of the other objects on the touch screen 151 to be adjusted according to the degree of movement of the object.

본 발명의 일실시예에 의하면, 전술한 방법(동작 흐름도)은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to one embodiment of the present invention, the above-described method (operation flow diagram) can be implemented as a code that can be read by a processor on a medium on which the program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 이동 단말기(100)는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. 또한, 상기 설명된 바와 같이, 중계서버(300), 별도 서버(700, 1100)는 데이터의 송수신을 수행할 수 있으며, 비록 유선 또는 무선통신부 등을 도시하여 설명하지 않았으나, 데이터 통신을 수행하기 위한 통신 모듈을 구비할 수 있음은 자명한 것이다.The above-described mobile terminal 100 is not limited in the configuration and method of the above-described embodiments, but the embodiments may be modified such that all or some of the embodiments are selectively combined . Also, as described above, the relay server 300 and the separate servers 700 and 1100 can perform transmission and reception of data, and although not shown in the drawing of a wired or wireless communication unit, It is obvious that a communication module can be provided.

한편, 본 명세서와 도면을 통해 본 발명의 바람직한 실시 예들에 대하여 설명하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. , And are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be practiced without departing from the scope of the invention disclosed herein.

100 : 이동 단말기
151 : 터치스크린
180 : 제어부
100: mobile terminal
151: Touch screen
180:

Claims (10)

객체를 디스플레이하는 터치스크린; 및
상기 터치스크린에 포인터에 의해 제1 터치제스처가 입력 되면, 상기 제1 터치제스처의 시작 위치 및 방향 중 적어도 하나에 따라 상기 제1 터치제스처를 상기 객체에 대한 제1 방향으로의 스크롤 명령 및 상기 객체에 대한 제2 방향으로의 이동 명령 중 하나로서 실행하는 제어부를 포함하는 이동단말기.
A touch screen for displaying objects; And
Wherein when the first touch gesture is input to the touch screen by a pointer, the first touch gesture is divided into a scroll command in the first direction and a command to scroll the object in the first direction according to at least one of a start position and a direction of the first touch gesture. As one of the movement commands in the second direction to the mobile terminal.
제 1 항에 있어서,
상기 제1 터치제스처는 상기 터치스크린 상에 행해지는 드래그 입력이고,
상기 제1 터치제스처가 상기 객체에 대한 상기 이동 명령인 경우, 상기 제어부는 상기 제2 방향으로 상기 객체가 이동되도록 제어하고, 상기 드래그 입력의 길이에 따라 상기 객체가 이동되는 거리를 조절하고, 상기 객체가 이동함에 따라 상기 객체의 일부만 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기
The method according to claim 1,
Wherein the first touch gesture is a drag input performed on the touch screen,
The control unit controls the object to move in the second direction when the first touch gesture is the move instruction for the object, adjusts the distance that the object is moved according to the length of the drag input, And displays only a part of the object as the object moves.
제 2 항에 있어서
상기 제어부는, 상기 터치스크린 상 미리 설정된 위치에서 시작되고, 제1 방향을 가지는 드래그 입력을 감지하면, 상기 제1 터치제스처를 상기 객체의 이동 명령으로 결정하는 것을 특징으로 하는 이동 단말기.
The method according to claim 2, wherein
Wherein the controller determines that the first touch gesture is a move command of the object when the drag operation starts at a preset position on the touch screen and detects a drag input having a first direction.
제 2 항에 있어서, 상기 제어부는,
상기 드래그 입력이 릴리스 되면, 상기 객체가 이동된 위치에서 고정되는 것을 특징으로 하는 이동단말기.
3. The apparatus of claim 2,
And when the drag input is released, the object is fixed at the moved position.
제 1 항에 있어서, 상기 제어부는,
상기 제1 터치제스처는 상기 터치스크린 상에 행해지는 드래그 입력이고,
상기 제1 터치제스처가 상기 객체에 대한 상기 이동 명령인 경우, 상기 제어부는 상기 제2 방향으로 상기 객체가 이동되도록 제어하고, 상기 드래그 입력의 길이에 따라 상기 객체가 이동되는 거리를 조절하고, 상기 드래그 입력의 길이에 따라 상기 터치스크린 상에 상기 객체의 전부를 디스플레이 하되, 상기 객체의 사이즈가 조절되어 디스플레이 하도록 제어하는 것을 특징으로 하는 이동단말기.
The apparatus of claim 1,
Wherein the first touch gesture is a drag input performed on the touch screen,
The control unit controls the object to move in the second direction when the first touch gesture is the move instruction for the object, adjusts the distance that the object is moved according to the length of the drag input, Wherein the controller controls the display of all of the objects on the touch screen according to the length of the drag input, and controls the sizes of the objects to be displayed.
제 2 항에 있어서, 상기 제어부는,
상기 객체가 상기 제2 방향으로 이동되도록 상기 제1 터치제스처가 제1 방향으로 행해진 후, 상기 포인터가 상기 터치스크린과 접촉을 유지한 상태에서 상기 제1 터치제스처가 제 1 방향과는 다른 방향으로 계속 행해지는 경우, 상기 다른 방향을 따라 상기 객체가 이동되며 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
3. The apparatus of claim 2,
After the first touch gesture is performed in the first direction such that the object is moved in the second direction, the first touch gesture is moved in a direction different from the first direction in a state in which the pointer remains in contact with the touch screen Wherein the control unit controls the moving and displaying of the object along the other direction when the control unit continuously performs the control.
제 2 항에 있어서, 상기 제어부는,
상기 객체가 디스플레이되는 영역 외에 상기 객체의 이동으로 발생하는 영역에 상기 객체와 다른 객체가 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
3. The apparatus of claim 2,
Wherein the control unit controls the display unit to display an object different from the object in an area generated by the movement of the object, in addition to the area in which the object is displayed.
제 7 항에 있어서, 상기 제어부는,
상기 객체가 이동되는 거리에 따라 상기 디스플레이되는 다른 객체의 사이즈 및 개수 중 적어도 하나를 조절하는 것을 특징으로 하는 이동단말기.
8. The apparatus of claim 7,
And adjusts at least one of a size and a number of the other objects displayed according to the distance the object is moved.
제 1 항에 있어서, 상기 제어부는,
상기 객체의 적어도 일부의 특정 영역에 제2 터치제스처가 입력되면, 상기 특정 영역에 대응하는 컨텐츠가 상기 터치스크린의 전체 영역에 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
The apparatus of claim 1,
Wherein when the second touch gesture is input to a specific area of at least a part of the object, the content corresponding to the specific area is displayed on the entire area of the touch screen.
객체를 디스플레이하는 단계; 및
포인터에 의해 제1 터치제스처가 입력 되면, 상기 제1 터치제스처의 시작 위치 및 방향 중 적어도 하나에 따라 상기 제1 터치제스처를 상기 객체에 대한 제1 방향으로의 스크롤 명령 및 상기 객체에 대한 제2 방향으로의 이동 명령 중 하나로서 실행하는 단계를 포함하는 이동단말기의 디스플레이 방법.
Displaying an object; And
When the first touch gesture is input by the pointer, the first touch gesture may be either a scroll command in the first direction for the object and a second command for the object in accordance with at least one of a start position and a direction of the first touch gesture, Direction as one of the movement commands to the mobile terminal.
KR1020130091385A 2013-08-01 2013-08-01 Mobile terminal and controlling method thereof KR20150015698A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130091385A KR20150015698A (en) 2013-08-01 2013-08-01 Mobile terminal and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130091385A KR20150015698A (en) 2013-08-01 2013-08-01 Mobile terminal and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20150015698A true KR20150015698A (en) 2015-02-11

Family

ID=52572884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130091385A KR20150015698A (en) 2013-08-01 2013-08-01 Mobile terminal and controlling method thereof

Country Status (1)

Country Link
KR (1) KR20150015698A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220043529A1 (en) * 2012-09-17 2022-02-10 Huawei Device Co., Ltd. Touch Operation Processing Method and Terminal Device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220043529A1 (en) * 2012-09-17 2022-02-10 Huawei Device Co., Ltd. Touch Operation Processing Method and Terminal Device
US11592924B2 (en) * 2012-09-17 2023-02-28 Huawei Device Co., Ltd. Touch operation processing method and terminal device
US12093481B2 (en) 2012-09-17 2024-09-17 Huawei Device Co., Ltd. Touch operation processing method and terminal device

Similar Documents

Publication Publication Date Title
KR101510484B1 (en) Mobile Terminal And Method Of Controlling Mobile Terminal
KR101635016B1 (en) Mobile terminal and method for searching a map
KR101899817B1 (en) Mobile terminal and controlling method thereof
KR101871718B1 (en) Mobile terminal and method for controlling the same
KR102131828B1 (en) Terminal and method for controlling the same
KR20150009204A (en) Mobile terminal and method for controlling the same
KR20130125522A (en) Mobile terminal and method for controlling thereof
KR20110058117A (en) Method for displaying data in mobile terminal having touch screen and mobile termimnal thereof
KR101992194B1 (en) Mobile terminal and controlling method thereof
KR20150009119A (en) Mobile terminal
KR102131827B1 (en) Mobile terminal and controlling method thereof
KR20140055804A (en) Mobile terminal and controlling method thereof
KR101688150B1 (en) Mobile terminal and method for controlling object display using multi-touch thereof
KR20150050883A (en) Terminal and method for controlling the same
KR20140143911A (en) Mobile terminal and method for controlling the same
KR101688940B1 (en) Mobile terminal and method for controlling multitasking thereof
KR101980704B1 (en) Mobile terminal and controlling method thereof
KR20150049987A (en) Mobile terminal and screen scroll method thereof
KR20130132679A (en) Mobile terminal having flexible display
KR101732517B1 (en) Mobile terminal and method for sharing display thereof
KR20150012945A (en) Mobile terminal and method for controlling the same
KR20140049355A (en) Mobile terminal and method for controlling the same
KR101919778B1 (en) Mobile terminal and method for controlling thereof, and recording medium thereof
KR20150015698A (en) Mobile terminal and controlling method thereof
KR20150049117A (en) Mobile terminal and controlling method thereof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination