KR20140003245A - Mobile terminal and control method for mobile terminal - Google Patents

Mobile terminal and control method for mobile terminal Download PDF

Info

Publication number
KR20140003245A
KR20140003245A KR1020120071317A KR20120071317A KR20140003245A KR 20140003245 A KR20140003245 A KR 20140003245A KR 1020120071317 A KR1020120071317 A KR 1020120071317A KR 20120071317 A KR20120071317 A KR 20120071317A KR 20140003245 A KR20140003245 A KR 20140003245A
Authority
KR
South Korea
Prior art keywords
item
web page
controller
touch
mobile terminal
Prior art date
Application number
KR1020120071317A
Other languages
Korean (ko)
Inventor
지주민
김보람
정주현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120071317A priority Critical patent/KR20140003245A/en
Publication of KR20140003245A publication Critical patent/KR20140003245A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

The present invention relates to a mobile terminal and a control method thereof. According to an embodiment of the present invention, the mobile terminal includes a memory; a touch screen displaying a web page; and a control part. The control part stores an item in the memory by loading the item from a background. [Reference numerals] (AA) Start; (BB,DD,FF) No; (CC,EE,GG) Yes; (HH) End; (S101) Displaying a web page; (S102) Closely touching a specific object?; (S103) Displaying preview images of an item related to the closely touched object; (S104) Pre-loading request?; (S105) Preloading the items; (S106) Requesting the display of the pre-loaded items?; (S107) Displaying the pre-loaded items

Description

이동 단말기 및 이동 단말기의 제어 방법{Mobile terminal and control method for mobile terminal}Mobile terminal and control method for mobile terminal

본 발명은 이동 단말기 및 이동 단말기의 제어 방법에 관한 것이다.
The present invention relates to a mobile terminal and a control method of the mobile terminal.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시, 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. A terminal can be divided into a mobile terminal and a stationary terminal depending on whether the terminal is movable. Again, the mobile terminal may be divided into a handheld terminal and a vehicle mount terminal according to whether the user can carry the mobile phone directly.

최근 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 근접 터치(proximity touch)를 이용하여 단말기를 제어하는 기술들이 제안되고 있다. 그러나, 아직까지는 터치 스크린 상에 포인터가 실제로 접촉되는 접촉 터치에 비해 그 활용이 미미한 편이며, 근접 터치의 활용도를 높이기 위해서는 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려되고 있다. Recently, techniques for controlling a terminal using proximity touches that allow the pointer to be located without touching the touch screen and recognize that the pointer is positioned on the touch screen have been proposed. However, it is still insignificant compared to the touch touch where the pointer is actually touched on the touch screen, and in order to increase the utilization of the proximity touch, it is considered to improve the structural part and / or software part of the terminal.

본 발명의 과제는, 근접 터치를 효율적으로 활용하기 위한 이동 단말기 및 이동 단말기의 제어 방법을 제공하는 것이다.
An object of the present invention is to provide a mobile terminal and a control method of the mobile terminal for efficiently utilizing the proximity touch.

본 발명의 양상에 따른 이동 단말기는, 메모리; 웹 페이지를 표시하는 터치 스크린; 및 상기 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라 상기 특정 객체와 관련된 아이템의 프리뷰 이미지를 상기 터치 스크린에 표시하고, 상기 아이템에 대한 프리로딩(pre-loading)을 요청하는 제1 제어 입력이 수신되면, 백그라운드(background)에서 상기 아이템을 로딩하여 상기 메모리에 저장하는 제어부를 포함한다.A mobile terminal according to an aspect of the present invention includes a memory; A touch screen displaying a web page; And a first control input for displaying a preview image of an item related to the specific object on the touch screen as a specific object included in the web page is in close proximity touch, and requesting pre-loading of the item. When received, the controller loads the item in the background and stores the item in the memory.

또한, 본 발명의 다른 양상에 따른 이동 단말기는, 웹 페이지를 표시하는 터치 스크린; 및 상기 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라, 상기 웹 페이지를 표시하기 이전에 실행 중이던 특정 어플리케이션의 기능을 상기 특정 객체와 관련하여 실행하며, 상기 특정 객체와 관련하여 실행된 상기 특정 어플리케이션의 실행 화면을 프리뷰 이미지로 상기 터치 스크린에 표시하는 제어부를 포함한다. In addition, a mobile terminal according to another aspect of the present invention, a touch screen for displaying a web page; And when the specific object included in the web page is in close proximity touch, executes a function of a specific application that is being executed before displaying the web page with respect to the specific object, and executes the specific application executed with respect to the specific object. And a controller configured to display an execution screen of the preview image on the touch screen.

또한, 본 발명의 또 다른 양상에 따른 이동 단말기는, 터치 스크린; 및 검색 창을 통해 검색어 및 관심 정보가 입력되면, 상기 검색어를 이용하여 검색한 적어도 하나의 검색 결과를 상기 터치 스크린에 표시하고, 상기 적어도 하나의 검색 결과 중 어느 하나의 검색 결과가 근접 터치되면, 상기 근접 터치된 검색 결과에 링크된 웹 페이지에서 상기 관심 정보에 대응하는 영역을 프리뷰 이미지로 표시하는 제어부를 포함한다. In addition, a mobile terminal according to another aspect of the present invention, a touch screen; And when a search term and interest information are input through a search window, when at least one search result searched using the search term is displayed on the touch screen, and when one of the at least one search result is in close proximity, And a controller configured to display, as a preview image, an area corresponding to the interest information in a web page linked to the proximity touched search result.

또한, 본 발명의 또 다른 양상에 따른 이동 단말기는, 이동 단말기의 움직임을 감지하는 센싱부; 터치 스크린; 및 동영상 리스트를 상기 터치 스크린에 표시하며, 근접 터치 입력에 기반하여 상기 리스트에 포함된 복수의 동영상을 선택하고, 상기 이동 단말기가 가로 부(landscape view) 모드로 동작하기 위해 특정 방향으로 회전함에 따라, 상기 선택된 복수의 동영상을 순차적으로 이어서 재생하는 제어부를 포함한다. In addition, the mobile terminal according to another aspect of the present invention, the sensing unit for detecting the movement of the mobile terminal; touch screen; And displaying a video list on the touch screen, selecting a plurality of videos included in the list based on a proximity touch input, and rotating the mobile terminal in a specific direction to operate in a landscape view mode. And a controller configured to sequentially play the selected plurality of videos.

또한, 본 발명의 양상에 따른 이동 단말기의 제어 방법은, 웹 페이지를 표시하는 단계; 상기 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라, 상기 특정 객체와 관련된 아이템의 프리뷰 이미지를 표시하는 단계; 근접 터치 입력을 토대로 상기 아이템을 백그라운드에서 프리로딩하는 단계; 및 프리로딩된 아이템의 표시가 요청되면, 프리로딩된 적어도 하나의 아이템을 표시하는 단계를 포함한다.
Further, a control method of a mobile terminal according to an aspect of the present invention includes the steps of displaying a web page; Displaying a preview image of an item related to the specific object as the specific object included in the web page is in close proximity touch; Preloading the item in the background based on a proximity touch input; And when the display of the preloaded item is requested, displaying the at least one preloaded item.

본 발명에 따른 이동 단말기 및 이동 단말기의 제어 방법은, 여러 단계의 조작을 통해 수행되는 작업들을 근접 터치를 이용하여 최소한의 조작만으로 수행하는 것이 가능하여 사용자의 편의성을 향상시키는 효과가 있다. 또한, 기존의 접촉 터치와는 구분되는 제어 입력으로 근접 터치를 활용함으로써, 근접 터치의 사용성을 높이는 효과가 있다.
The mobile terminal and the method for controlling the mobile terminal according to the present invention can perform the operations performed through the operation of various steps with only a minimum operation using the proximity touch, thereby improving the convenience of the user. In addition, by utilizing the proximity touch as a control input distinguished from the existing contact touch, there is an effect of increasing the usability of the proximity touch.

도 1은 본 발명의 실시 예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 실시 예들과 관련된 이동 단말기의 전면 사시도이다.
도 3은 본 발명의 실시 예들과 관련된 이동 단말기의 후면 사시도이다.
도 4는 근접 센서의 근접 깊이를 설명하기 위한 개념도이다.
도 5는 본 발명의 제1 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다.
도 6 내지 도 10은 상기 S103 단계에서 근접 터치된 객체와 관련된 아이템의 프리뷰 이미지를 표시하는 예들을 도시한 것이다.
도 11 및 도 12는 상기 S103 단계에서, 근접 터치 깊이에 따른 프리뷰 이미지의 표시 방법을 나타내는 화면의 예들을 도시한 것이다.
도 13 내지 도 16은 프리뷰 중인 아이템의 프리로딩을 요청하는 제어 입력을 수신하는 방법의 예들을 도시한 것이다.
도 17 내지 도 19는 상기 S106 단계에서, 프리로딩된 아이템의 표시를 요청하는 제어 입력을 수신하는 방법의 예들을 도시한 것이다.
도 20은 근접 터치된 객체와 관련된 아이템의 프리뷰 이미지를 표시한 상태에 입력되는 터치 제스처에 따라서 서로 다른 기능을 수행하는 예를 도시한 것이다.
도 21은 본 발명의 제2 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다.
도 22 내지 도 25는 상기 S204 단계에서 선택된 객체와 관련하여 어플리케이션 기능을 실행하는 예들을 도시한 것이다.
도 26은 본 발명의 제3 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다.
도 27은 검색 결과로부터 획득한 관심정보를 프리뷰 이미지로 표시하는 예를 도시한 것이다.
도 28은 관심정보가 대응되어 있는 아이콘을 표시하는 일 예를 도시한 것이다.
도 29는 본 발명의 제4 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다.
도 30은 컨테츠 리스트에서 적어도 하나의 컨텐츠를 선택하는 일 예를 도시한 것이다.
도 31은 근접 터치에 의해 선택된 적어도 하나의 컨텐츠를 순차적으로 실행하는 일 예를 도시한 것이다.
도 32는 본 발명의 제5 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다.
도 33 및 도 34는 근접 터치에 의해 선택된 아이템들을 실행하는 예들을 도시한 것이다.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a front perspective view of a mobile terminal according to embodiments of the present invention.
3 is a rear perspective view of a mobile terminal related to embodiments of the present invention.
4 is a conceptual diagram illustrating a proximity depth of a proximity sensor.
5 is a flowchart illustrating a control method of a mobile terminal according to a first embodiment of the present invention.
6 to 10 illustrate examples of displaying a preview image of an item related to an object that is in close proximity touch in operation S103.
11 and 12 illustrate examples of screens showing a method of displaying a preview image according to a proximity touch depth in step S103.
13 through 16 illustrate examples of a method of receiving a control input requesting preloading of an item being previewed.
17 to 19 illustrate examples of a method of receiving a control input for requesting display of a preloaded item in step S106.
20 illustrates an example of performing different functions according to a touch gesture input while displaying a preview image of an item related to a proximity touched object.
21 is a flowchart illustrating a control method of a mobile terminal according to a second embodiment of the present invention.
22 to 25 illustrate examples of executing an application function in relation to the object selected in step S204.
26 is a flowchart illustrating a control method of a mobile terminal according to a third embodiment of the present invention.
FIG. 27 illustrates an example of displaying interest information obtained from a search result as a preview image.
28 illustrates an example of displaying an icon to which interest information corresponds.
29 is a flowchart illustrating a control method of a mobile terminal according to a fourth embodiment of the present invention.
30 illustrates an example of selecting at least one content from a content list.
FIG. 31 illustrates an example of sequentially executing at least one content selected by a proximity touch.
32 is a flowchart illustrating a control method of a mobile terminal according to a fifth embodiment of the present invention.
33 and 34 illustrate examples of executing items selected by the proximity touch.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 일 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. In addition, numerals (e.g., days, days, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another component

어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffix "module" and " part "for constituent elements used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

또한, 본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등이 포함될 수 있다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) .

이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예들과 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to embodiments of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in Fig. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVBH(Digital Video BroadcastHandheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of a DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of a DVBH (Digital Video BroadcastHandheld).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMBT(Digital Multimedia BroadcastingTerrestrial), DMBS(Digital Multimedia BroadcastingSatellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video BroadcastHandheld), ISDBT(Integrated Services Digital BroadcastTerrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 receives broadcast signals using various broadcasting systems. In particular, the broadcast receiving module 111 may be a digital multimedia broadcasting broadcasting (DMBT), a digital multimedia broadcasting satellite (DMBS), a media forward link only (MediaFLO), a digital video broadcasting ), And ISDBT (Integrated Services Digital Broadcast Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems that provide broadcast signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(WiFi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 can be embedded in the mobile terminal 100 or externally. WLAN (WiFi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 포인트(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 포인트(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다. The location information module 115 is a module for confirming or obtaining the location of the mobile terminal. A typical example of the location information module is a GPS (Global Position System) module. According to the current technology, the GPS module 115 calculates information on a distance (distance) from three or more satellites to one point (object), information on the time when the distance information is measured, , It is possible to calculate three-dimensional position information according to latitude, longitude, and altitude of one point (individual) in one hour. Further, a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is also used. The GPS module 115 continues to calculate the current position in real time and uses it to calculate speed information.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이 모듈(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display module 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ The camera 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접센서를 포함할 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, it may be responsible for a sensing function related to whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이 모듈(151), 음향 출력 모듈(152), 알람부(153), 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is for generating output related to visual, auditory or tactile sense and includes a display module 151, an acoustic output module 152, an alarm unit 153, and a haptic module 154 .

디스플레이 모듈(151)은 이동 단말기(100)에서 처리되는 정보를 표시한다. 예를 들어, 이동 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display module 151 displays information processed by the mobile terminal 100. For example, when the mobile terminal 100 is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이 모듈(151)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistorliquid crystal display), 유기 발광 다이오드(organic lightemitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display module 151 may be a liquid crystal display, a thin film transistor liquid crystal display, an organic light emitting diode, a flexible display, a 3D display And may include at least one.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이 모듈(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이 모듈(151)이 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This may be referred to as a transparent display. A typical example of the transparent display is a transparent LCD or the like. The rear structure of the display module 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display module 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이 모듈(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이 모듈들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display modules 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display modules may be spaced apart or integrally arranged on one surface, and may be disposed on different surfaces, respectively.

디스플레이 모듈(151)과 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이 모듈(151)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.In a case where the display module 151 and the sensor for sensing the touch operation (hereinafter, referred to as 'touch sensor') have a mutual layer structure (hereinafter referred to as 'touch screen' It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이 모듈(151)의 특정 부위에 가해진 압력 또는 디스플레이 모듈(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display module 151 or a capacitance generated in a specific portion of the display module 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이 모듈(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display module 151 is touched or the like.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접센서가 배치될 수 있다. 상기 근접센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is enclosed by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접센서, 정전용량형 근접센서, 자기형 근접센서, 적외선 근접센서 등이 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접센서로 분류될 수도 있다.And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 outputs an acoustic signal related to a function (e.g., a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이 모듈(151)이나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or audio signal may also be output through the display module 151 or the audio output module 152.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may be configured to perform various functions such as an effect of stimulation by a pin arrangement vertically moving with respect to a contact skin surface, an effect of stimulation by air spraying force or suction force through a jet opening or a suction opening, A variety of tactile effects such as an effect of stimulation through contact of an electrode, an effect of stimulation by an electrostatic force, and an effect of reproducing a cold sensation using a heat absorbing or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to feel the tactile effect through the muscles of the user's finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the portable terminal 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 160 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM At least one of a random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read- Type storage medium. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or receives power from the external device to transfer the data to each component in the mobile terminal 100 or to transmit data in the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

상기 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM) (Universal Subscriber Identity Module, USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The control unit 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(microcontrollers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시 예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, microcontrollers, microprocessors, and electrical units for performing functions. In some cases such embodiments may be implemented using a controller 180 < / RTI >

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시 예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. In addition, the software codes may be stored in the memory 160 and executed by the control unit 180. [

도 2는 본 발명의 실시 예들과 관련된 이동 단말기 또는 휴대 단말기의 일 예를 전면에서 바라본 사시도이다.2 is a front perspective view of an example of a mobile terminal or a portable terminal according to embodiments of the present invention.

개시된 휴대 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 2 이상의 바디들이 상대 이동 가능하게 결합되는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용이 가능하다. The disclosed mobile terminal 100 has a bar-shaped terminal body. However, the present invention is not limited thereto, and can be applied to various structures such as a slide type, a folder type, a swing type, and a swivel type in which two or more bodies are relatively movably coupled.

바디는 외관을 이루는 케이스(케이싱, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스들이 추가로 배치될 수도 있다.The body includes a case (a casing, a housing, a cover, and the like) which forms an appearance. In this embodiment, the case may be divided into a front case 101 and a rear case 102. [ A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be additionally disposed between the front case 101 and the rear case 102. [

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injection molding a synthetic resin, or may be formed to have a metal material such as stainless steel (STS) or titanium (Ti) or the like.

단말기 바디, 주로 프론트 케이스(101)에는 디스플레이 모듈(151), 음향출력부(152), 카메라(121), 사용자 입력부(130/131,132), 마이크(122), 인터페이스(170) 등이 배치될 수 있다.A display module 151, an audio output unit 152, a camera 121, user input units 130/131 and 132, a microphone 122, an interface 170, and the like may be disposed in the front body 101 have.

디스플레이 모듈(151)은 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이 모듈(151)의 양단부 중 일 단부에 인접한 영역에는 음향출력부(152)와 카메라(121)가 배치되고, 다른 단부에 인접한 영역에는 사용자 입력부(131)와 마이크(122)가 배치된다. 사용자 입력부(132)와 인터페이스(170) 등은 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 배치된다.The display module 151 occupies most of the main surface of the front case 101. The sound output unit 152 and the camera 121 are disposed in regions adjacent to one end of both ends of the display module 151, and the user input unit 131 and the microphone 122 are disposed in regions adjacent to the other end. The user input unit 132, the interface 170, and the like are disposed on the side surfaces of the front case 101 and the rear case 102.

사용자 입력부(130)는 휴대 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들(131,132)을 포함할 수 있다. The user input unit 130 is operated to receive a command for controlling the operation of the portable terminal 100 and may include a plurality of operation units 131 and 132.

조작 유닛들(131,132)은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The operation units 131 and 132 may be collectively referred to as a manipulating portion and may be employed in any manner as long as the user operates in a tactile manner.

조작 유닛들(131,132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 음향출력부(152)에서 출력되는 음향의 크기 조절 또는 디스플레이 모듈(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.The contents input by the operation units 131 and 132 can be variously set. For example, the first manipulation unit 131 receives a command such as start, end, scroll, and the like, and the second manipulation unit 132 adjusts the volume of the sound output from the sound output unit 152 or the display module 151. Command), such as switching to the touch recognition mode.

도 3은 도 2에 도시된 휴대 단말기의 후면 사시도이다. 3 is a rear perspective view of the portable terminal shown in FIG.

도 3을 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 카메라(121')가 추가로 장착될 수 있다. 카메라(121')는 카메라(121, 도 2 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 카메라(121)와 서로 다른 화소를 가지는 카메라일 수 있다. Referring to FIG. 3, a camera 121 'may be further mounted on the rear surface of the terminal body, that is, the rear case 102. The camera 121 ′ has a photographing direction substantially opposite to that of the camera 121 (see FIG. 2), and may be a camera having different pixels from the camera 121.

예를 들어, 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 카메라(121')는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 카메라(121,121')는 회전 또는 팝업(popup) 가능하게 단말기 바디에 설치될 수도 있다.For example, the camera 121 may have a low pixel so that the face of the user can be photographed and transmitted to the other party in case of a video call or the like, and the camera 121 ' It is preferable to have a large number of pixels. The cameras 121 and 121 'may be installed in the terminal body such that they can be rotated or popped up.

카메라(121')에 인접하게는 플래쉬(123)와 거울(124)이 추가로 배치된다. 플래쉬(123)는 카메라(121')로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 카메라(121')를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 are further disposed adjacent to the camera 121 '. The flash 123 illuminates the subject when the subject is photographed by the camera 121 '. The mirror 124 allows the user to illuminate the user's own face or the like when the user intends to shoot himself / herself (self-photographing) using the camera 121 '.

단말기 바디의 후면에는 음향 출력부(152')가 추가로 배치될 수도 있다. 음향 출력부(152')는 음향 출력부(152, 도 2 참조)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.An acoustic output 152 'may be additionally disposed on the rear surface of the terminal body. The sound output unit 152 ′ may implement a stereo function together with the sound output unit 152 (see FIG. 2), and may be used to implement a speakerphone mode during a call.

단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(124)가 추가적으로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나(124)는 단말기 바디에서 인출 가능하게 설치될 수 있다.In addition to the antenna for a call or the like, a broadcast signal reception antenna 124 may be additionally disposed on the side of the terminal body. The antenna 124 constituting a part of the broadcast receiving module 111 (see FIG. 1) may be installed to be able to be drawn out from the terminal body.

단말기 바디에는 휴대 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 직접 탈착될 수 있게 구성될 수 있다.A power supply unit 190 for supplying power to the portable terminal 100 is mounted on the terminal body. The power supply unit 190 may be built in the terminal body or may be detachable from the outside of the terminal body.

리어 케이스(102)에는 터치를 감지하기 위한 터치 패드(135)가 추가로 장착될 수 있다. 터치 패드(135) 또한 디스플레이 모듈(151)과 마찬가지로 광 투과형으로 구성될 수 있다. 이 경우에, 디스플레이 모듈(151)이 양면에서 시각 정보를 출력하도록 구성된다면, 터치 패드(135)를 통해서도 상기 시각 정보를 인지할 수 있게 된다. 상기 양면에 출력되는 정보는 상기 터치 패드(135)에 의해 모두 제어될 수도 있다. 이와는 달리, 터치 패드(135)에는 디스플레이가 추가로 장착되어, 리어 케이스(102)에도 터치 스크린이 배치될 수도 있다.The rear case 102 may further include a touch pad 135 for sensing a touch. The touch pad 135 may also be of a light transmission type like the display module 151. In this case, if the display module 151 is configured to output time information on both sides, the time information can be recognized through the touch pad 135 as well. The information output on both sides may be all controlled by the touch pad 135. [ Alternatively, a display may be additionally mounted on the touch pad 135, and a touch screen may be disposed on the rear case 102.

터치 패드(135)는 프론트 케이스(101)의 디스플레이 모듈(151)과 상호 관련되어 작동한다. 터치 패드(135)는 디스플레이 모듈(151)의 후방에 평행하게 배치될 수 있다. 이러한 터치 패드(135)는 디스플레이 모듈(151)과 동일하거나 작은 크기를 가질 수 있다.The touch pad 135 operates in association with the display module 151 of the front case 101. The touch pad 135 may be disposed parallel to the rear of the display module 151. The touch pad 135 may have the same or smaller size as the display module 151.

도 4은 근접 센서의 근접 깊이를 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating a proximity depth of a proximity sensor.

도 4에 도시한 바와 같이 사용자의 손가락 등과 같은 포인터가 상기 터치스크린에 근접하는 경우, 상기 터치스크린 내부 또는 근방에 배치된 상기 근접센서가 이를 감지하여 근접신호를 출력한다. As shown in FIG. 4, when a pointer such as a user's finger is close to the touch screen, the proximity sensor disposed in or near the touch screen detects this and outputs a proximity signal.

근접 센서는 상기 근접 터치되는 포인터와 상기 터치스크린 간의 거리(이하 "근접 깊이"라고 함)에 따라 서로 다른 근접 신호를 출력하도록 구성될 수 있다. The proximity sensor may be configured to output different proximity signals according to a distance between the proximity-touched pointer and the touch screen (hereinafter referred to as "proximity depth").

터치스크린에 포인터가 접근할 때 근접신호가 출력되는 거리를 검출거리라고 하는데, 간단하게는 상기 검출거리가 서로 다른 근접센서를 복수로 사용함으로써 각 근접센서에서 출력되는 근접신호를 비교하면 상기 근접 깊이를 알 수 있다. A distance at which the proximity signal is output when the pointer approaches the touch screen is referred to as a detection distance. In short, by using a plurality of proximity sensors having different detection distances, the proximity signals output from the proximity sensors are compared, .

도 4에서는 예컨대 3개의 근접 깊이를 감지할 수 있는 근접 센서가 배치된 터치스크린의 단면이 예시되고 있다. 3개 미만 또는 4개 이상의 근접 깊이를 감지하는 근접 센서도 가능함은 물론이다.In FIG. 4, for example, a cross section of a touch screen on which three proximity sensors capable of sensing three proximity depths is disposed is illustrated. Of course, proximity sensors that detect less than three or more than four proximity depths are also possible.

구체적으로 살펴보면, 상기 포인터가 상기 터치스크린 상에 완전히 접촉되는 경우(d0)에는 접촉 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d1 거리 미만으로 이격되어 위치하는 경우에는 제 1 근접 깊이의 근접 터치로 인식된다. Specifically, when the pointer is completely in contact with the touch screen (d0), it is recognized as a contact touch. If the pointer is located on the touch screen at a distance less than the distance d1, it is recognized as a proximity touch of the first proximity depth.

상기 포인터가 상기 터치스크린 상에서 d1 거리 이상 d2 거리 미만으로 이격되어 위치하는 경우에는 제 2 근접 깊이의 근접 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d2 거리 이상 d3 거리 미만으로 이격되어 위치하는 경우에는 제 3근접 깊이의 근접 터치로 인식된다. 그리고, 상기 포인터가 상기 터치스크린 상에서 d3 거리 이상으로 이격되어 위치하는 경우에는 근접 터치가 해제된 것으로 인식된다.If the pointer is located on the touch screen at a distance d1 or less and less than the distance d2, the pointer is recognized as a proximity touch of the second proximity depth. If the pointer is located on the touch screen at a distance d2 or more and less than the distance d3, it is recognized as a proximity touch of the third proximity depth. If the pointer is located at a distance d3 or more on the touch screen, it is recognized that the proximity touch is released.

따라서, 상기 제어부(180)는 상기 포인터의 터치스크린에 대한 근접거리 및 근접 위치 등에 따라 상기 근접 터치를 다양한 입력 신호로 인식할 수 있고, 상기 다양한 입력 신호에 따른 다양한 동작 제어를 수행할 수 있다.
Accordingly, the controller 180 may recognize the proximity touch as various input signals according to the proximity distance and the proximity position of the pointer touch screen, and perform various operation control according to the various input signals.

본 문서에서 개시되는 실시 예들은 도 1 내지 도 4를 참조하여 설명한 이동 단말기(100)에서 구현될 수 있다. Embodiments disclosed in this document may be implemented in the mobile terminal 100 described with reference to FIGS. 1 to 4.

본 문서에서는, 디스플레이 모듈(151)을 터치스크린(151)으로 가정하여 설명한다. 전술한 바와 같이, 터치스크린(151)은, 정보 표시 기능과 정보 입력 기능을 모두 수행할 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아님을 분명히 밝혀둔다.In this document, the display module 151 is assumed to be a touch screen 151. As described above, the touch screen 151 can perform both the information display function and the information input function. However, it should be clear that the present invention is not limited thereto.

또한, 본 문서에서 터치 제스처는 터치 스크린(151)를 접촉 터치하거나 근접 터치하여 구현되는 제스처를 의미하며, 터치 입력은 터치 제스처에 의해 수신되는 입력을 의미한다. In this document, the touch gesture refers to a gesture implemented by touching or touching the touch screen 151 in a touch manner, and the touch input means an input received by the touch gesture.

터치 제스처는 동작에 따라 태핑(tapping), 드래그(drag), 플리킹(flicking), 프레스(press), 멀티 터치(multi touch), 핀치 인(pinch in), 핀치 아웃(pinch out) 등으로 구분된다. The touch gesture is divided into tapping, dragging, flicking, press, multi-touch, pinch in, and pinch-out depending on the operation. do.

태핑은 터치 스크린(151)을 가볍게 한번 눌렀다 떼는 동작으로, 일반 컴퓨터에서의 마우스의 클릭과 같은 터치 제스처를 의미한다. Tapping refers to a touch gesture, such as a click of a mouse on a general computer, by gently pressing and releasing the touch screen 151 once.

또한, 드래그는 터치 스크린(151)을 터치한 상태에서 특정 위치로 이동한 후 떼는 동작으로, 객체를 드래그하는 경우, 해당 객체는 드래그 방향에 따라 지속적으로 이동하여 표시될 수도 있다. In addition, dragging may be performed by moving to a specific position while touching the touch screen 151, and when the object is dragged, the object may be continuously displayed in accordance with the drag direction.

또한, 플리킹은 터치 스크린(151)을 터치한 후 특정 방향(상, 하, 좌, 우 또는 대각선)으로 이동 후 접점을 떼는 동작을 의미하며, 이동 단말기(100)는 플리킹에 의해 터치 입력이 수신되면, 플리킹 방향, 속도 등을 토대로 특정 동작의 처리를 수행한다. 예를 들어, 플리킹 방향을 토대로 전자 책(e-book)의 페이지 넘김 동작을 수행할 수 있다. In addition, flicking refers to an operation of touching the touch screen 151 and then moving the contact in a specific direction (upward, downward, left, right or diagonal) and then releasing the contact point. The mobile terminal 100, The processing of the specific operation is performed based on the flicking direction, speed, and the like. For example, the page turning operation of the e-book can be performed based on the flicking direction.

또한, 프레스는 터치 스크린(151)을 터치 후 기 설정된 시간 이상 지속적으로 터치를 유지하는 동작을 의미한다.In addition, the press refers to an operation of continuously holding the touch for a predetermined time or longer after touching the touch screen 151. [

또한, 멀티 터치는 터치 스크린(151)의 복수의 지점을 동시에 터치하는 동작을 의미한다. In addition, the multi-touch means an operation of touching a plurality of points of the touch screen 151 at the same time.

또한, 핀치 인은 터치 스크린(151)을 멀티 터치 중인 복수의 포인터가 서로 가까워지는 방향으로 드래그하는 동작을 의미한다. 즉, 터치 스크린(151)에서 멀티 터치되는 복수의 지점 중 적어도 하나의 지점으로부터 시작되고, 멀티 터치되는 복수의 지점이 서로 가까워지는 방향으로 발생하는 드래그를 의미한다. In addition, the pinch-in refers to an operation of dragging the touch screen 151 in a direction in which a plurality of pointers that are multi-touching approach each other. That is, a drag that starts from at least one point among a plurality of points that are multi-touched on the touch screen 151 and occurs in a direction in which a plurality of points that are multi-touched approach each other.

또한, 핀치 아웃은 터치 스크린(151)을 멀티 터치 중인 복수의 포인터가 서로 멀어지는 방향으로 드래그하는 동작을 의미한다. 즉, 터치 스크린(151)에서 멀티 터치되는 복수의 지점 중 적어도 하나의 지점으로부터 시작되고, 멀티 터치되는 복수의 지점이 서로 멀어지는 방향으로 발생하는 드래그를 의미한다. In addition, pinch-out refers to an operation of dragging the touch screen 151 in a direction away from the plurality of pointers in multi-touch. That is, the drag starts from at least one point among a plurality of points that are multi-touched on the touch screen 151 and occurs in a direction in which the plurality of points that are multi-touch are separated from each other.

본 문서에서, 센싱부(140)는 자이로 센서(Gyroscope), 가속도 센서(Accelerometer), 지자기 센서(Magnetic sensor) 등을 포함할 수 있다. In this document, the sensing unit 140 may include a gyro sensor (Gyroscope), an accelerometer (Accelerometer), a geomagnetic sensor (Magnetic sensor).

자이로 센서는 이동 단말기(100)의 축 선상에서의 회전 즉, 이동 단말기(100)의 회전에 따른 회전 속도 또는 각 속도를 획득할 수 있다. 또한, 가속도 센서는 이동 단말기(100)의 움직임에 따른 중력 가속도를 획득할 수 있다. 또한, 지자기 센서는 나침반처럼 이동 단말기(100)의 방위를 획득할 수 있다. The gyro sensor may acquire a rotational speed or angular speed according to the rotation of the mobile terminal 100 on the axis, that is, the rotation of the mobile terminal 100. In addition, the acceleration sensor may obtain gravity acceleration according to the movement of the mobile terminal 100. In addition, the geomagnetic sensor may acquire the orientation of the mobile terminal 100 like a compass.

제어부(180)는 센싱부(130)의 자이로 센서를 통해 획득되는 각속도, 가속도 센서를 통해 획득되는 중력 가속도 및 지자기 센서를 통해 획득되는 이동 단말기(100)의 방위 중 적어도 하나를 토대로 이동 단말기(100)의 움직임을 획득할 수 있다. 여기서, 이동 단말기의 움직임은 이동 단말기(100) 바디의 이동, 기울어짐(tilting), 수평상태, 회전 등을 포함할 수 있다.
The controller 180 is based on at least one of the angular velocity obtained through the gyro sensor of the sensing unit 130, the gravity acceleration obtained through the acceleration sensor, and the orientation of the mobile terminal 100 obtained through the geomagnetic sensor. ) Can be obtained. Here, the movement of the mobile terminal may include the movement, tilting, horizontal state, rotation, etc. of the body of the mobile terminal 100.

이하, 필요한 도면들을 참조하여 본 발명의 제1 실시 예에 따른 이동 단말기의 제어 방법 및 이를 구현하기 위한 이동 단말기의 동작에 대하여 상세하게 설명한다. Hereinafter, a method of controlling a mobile terminal and an operation of the mobile terminal for implementing the same according to the first embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 5는 본 발명의 제1 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다. 또한, 도 5 내지 도 20은 도 5에 개시된 방법을 설명하기 위한 도면들이다. 5 is a flowchart illustrating a control method of a mobile terminal according to a first embodiment of the present invention. 5 to 20 are diagrams for describing the method disclosed in FIG. 5.

도 5를 참조하면, 제어부(180)는 웹 브라우저(Web browser)를 실행시켜 무선 통신부(110)를 통해 웹 서버에 연결하고, 연결된 웹 서버로부터 웹 페이지를 로딩(load)하여 터치 스크린(151)에 표시한다(S101). Referring to FIG. 5, the controller 180 executes a web browser to connect to a web server through the wireless communication unit 110, loads a web page from the connected web server, and then touches the touch screen 151. (S101).

또한, 제어부(180)는 웹 페이지에 표시된 특정 객체가 근접 터치됨에 따라(S102), 근접 터치된 객체와 관련된 아이템을 획득하고, 획득한 아이템의 프리뷰(preview) 이미지를 터치 스크린(151)에 표시한다(S103). In addition, as the specific object displayed on the web page is in close proximity touch (S102), the controller 180 acquires an item related to the proximity touched object, and displays a preview image of the obtained item on the touch screen 151. (S103).

또한, 제어부(180)는 프리뷰 이미지로 표시 중인 아이템의 프리로딩(pre-loading) 요청이 수신됨에 따라(S104), 프리로딩 요청된 아이템을 로딩(pre-loading)한다(S105). 여기서, 프리로딩은, 웹 페이지, 컨텐츠 등의 아이템을 실행하기 전에 백그라운드(background)에서 미리 로딩하여 메모리(160)에 저장하는 동작으로서, 프리로딩된 아이템은 별도의 실행 요청이 수신되기 전까지 터치 스크린(151)에 표시되지 않는다. In addition, when the preloading request for the item being displayed as the preview image is received (S104), the controller 180 loads the preloaded requested item (S105). Here, the preloading is an operation of preloading a background in a background and storing it in the memory 160 before executing an item such as a web page or content, and the preloaded item is a touch screen until a separate execution request is received. It is not displayed at 151.

제어부(180)는 프리로딩된 아이템의 표시 요청이 수신되면(S106), 프리 로딩된 아이템을 메모리(160)로부터 읽어와 터치 스크린(151)에 표시한다(S107). When the display request of the preloaded item is received (S106), the controller 180 reads the preloaded item from the memory 160 and displays it on the touch screen 151 (S107).

상기 S102 단계에서, 제어부(180)는 근접 터치에 의해 어느 하나의 객체가 선택되면, 선택된 객체를 강조하기 위해 선택된 객체의 표시 특성을 제어한다. 예를 들어, 선택된 객체에 대해 밑줄 표시, 음영 처리, 텍스트 굵기, 텍스트 색상 등을 제어하여 해당 객체가 선택되었음을 표시할 수 있다. In step S102, when any one object is selected by the proximity touch, the controller 180 controls display characteristics of the selected object to emphasize the selected object. For example, the selected object may be displayed by controlling underlining, shading, text thickness, and text color.

상기 S102 단계에서, 근접 터치되는 객체는, 텍스트, 이미지, 버튼, 아이콘 등을 포함할 수 있다. In step S102, the object that is in close touch may include text, an image, a button, an icon, and the like.

상기 S103 단계에서, 제어부(180)는 근접 터치에 의해 선택된 객체와 관련된 아이템의 프리뷰 이미지를 표시하기 위해, 아이템을 로딩 전 아이템과 관련된 프리뷰 정보를 획득할 수 있다. 이를 위해, 제어부(180)는 현재 표시 중인 웹 페이지를 파싱(parsing)하여 선택된 객체와 관련된 아이템의 프리뷰 정보를 획득하거나, 선택된 객체에 링크된 웹 페이지 또는 컨텐츠로부터 일부 정보를 획득할 수도 있다. 후자의 경우, 제어부(180)는 웹 페이지나 컨텐츠의 전체 데이터를 수신하는 대신, 일부 데이터만을 수신하여 사용할 수 있다. In operation S103, the controller 180 may acquire preview information related to the item before loading the item in order to display a preview image of the item related to the object selected by the proximity touch. To this end, the controller 180 may obtain preview information of an item related to a selected object by parsing a web page currently being displayed, or may obtain some information from a web page or content linked to the selected object. In the latter case, instead of receiving the entire data of the web page or the content, the controller 180 can receive and use only some data.

상기 S103 단계에서, 근접 터치된 객체와 관련된 아이템은, 근접 터치된 객체에 링크된 웹 페이지, 컨텐츠(contents) 등을 포함하며, 근접 터치된 객체와 관련된 뉴스, 검색 결과, 위치정보 등을 포함할 수 있다. 아래에서는 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라, 해당 객체와 관련된 아이템을 표시하는 실시 예들을 좀 더 상세하게 살펴보기로 한다. In step S103, the item related to the proximity touched object may include a web page linked to the proximity touched object, contents, etc., and may include news, a search result, location information, etc. related to the proximity touched object. Can be. Hereinafter, embodiments of displaying an item related to the object as a specific object included in the web page is in close proximity touch will be described in more detail.

제어부(180)는 터치 스크린(151)에 표시 중인 웹 페이지에서 다른 웹 페이지가 링크된 객체(예를 들어, 텍스트)가 근접 터치에 의해 선택됨에 따라, 선택된 객체에 링크된 웹 페이지의 프리뷰 이미지를 터치 스크린(151)에 표시할 수 있다. 예를 들어, 뉴스 리스트가 표시된 웹 페이지에서 특정 뉴스가 근접 터치에 의해 선택됨에 따라, 제어부(180)는 선택된 뉴스에 링크된 웹 페이지 즉, 선택된 뉴스가 기재된 웹 페이지의 프리뷰 이미지를 표시할 수 있다. 또한, 예를 들어, 현재 표시 중인 웹 페이지에서 댓글 버튼이 근접 터치에 의해 선택됨에 따라, 현재 표시 중인 웹 페이지에 달린 댓글들이 기재된 웹 페이지의 프리뷰 이미지로 표시할 수도 있다. 또한, 예를 들어, 지도 이미지를 포함하는 웹 페이지가 표시된 상태에서, 지도 이미지의 특정 위치가 근접 터치에 의해 선택됨에 따라, 제어부(180)는 선택된 위치에 링크된 웹 페이지의 프리뷰 이미지를 표시할 수도 있다. The controller 180 displays a preview image of the web page linked to the selected object as the object (for example, text) linked to another web page is selected by the proximity touch on the web page displayed on the touch screen 151. It may be displayed on the touch screen 151. For example, as a specific news is selected by a proximity touch on a web page on which a news list is displayed, the controller 180 may display a preview image of a web page linked to the selected news, that is, a web page on which the selected news is described. . In addition, for example, as the comment button is selected by the proximity touch on the currently displayed web page, the comment attached to the currently displayed web page may be displayed as a preview image of the described web page. Also, for example, when a web page including a map image is displayed, as a specific position of the map image is selected by the proximity touch, the controller 180 may display a preview image of the web page linked to the selected position. It may be.

제어부(180)는 웹 페이지에 포함된 이미지, 동영상, 전자 문서 등의 컨텐츠가 근접 터치에 의해 선택됨에 따라, 선택된 컨텐츠의 프리뷰 이미지를 터치 스크린(151)에 표시할 수도 있다. The controller 180 may display a preview image of the selected content on the touch screen 151 as the content of an image, a video, an electronic document, or the like included in the web page is selected by the proximity touch.

제어부(180)는 화면에 표시 중인 웹 페이지에 포함된 특정 객체가 근접 터치에 의해 선택됨에 따라, 해당 객체와 관련된 뉴스의 프리뷰 이미지를 터치 스크린(151)에 표시할 수도 있다. 제어부(180)는 화면에 표시 중인 웹 페이지를 파싱(parsing)하여 근접 터치된 객체와 관련된 검색어를 획득하고, 이를 토대로 관련된 뉴스를 검색할 수 있다. 한편, 관련된 뉴스가 복수 개인 경우, 제어부(180)는 관련된 복수의 뉴스를 포함하는 뉴스 리스트를 프리뷰 이미지로 표시할 수도 있다. 한편, 제어부(180)는 뉴스 검색 과정에서 중복되는 뉴스는 필터링을 통해 제거할 수도 있다. As the specific object included in the web page displayed on the screen is selected by the proximity touch, the controller 180 may display the preview image of the news related to the object on the touch screen 151. The controller 180 may parse a web page displayed on the screen to obtain a search word related to a proximity touched object, and search for related news. Meanwhile, when there are a plurality of related news, the controller 180 may display a news list including a plurality of related news as a preview image. Meanwhile, the controller 180 may remove duplicate news through filtering in the news search process.

제어부(180)는 웹 페이지에 포함된 특정 객체가 근접 터치에 의해 선택됨에 따라, 선택된 객체와 관련된 검색 결과를 프리뷰 이미지로 표시할 수도 있다. 이를 위해, 제어부(180)는 현재 표시 중인 웹 페이지의 파싱을 통해 선택된 객체와 관련된 검색어를 획득하고, 획득한 검색어를 이용하여 검색한 검색 결과를 프리뷰 이미지로 표시할 수도 있다. 한편, 제어부(180)는 검색된 결과들에 대한 필터링을 통해 중복되는 내용을 제거한 후 프리뷰 이미지를 표시할 수도 있다. As a specific object included in the web page is selected by the proximity touch, the controller 180 may display a search result related to the selected object as a preview image. To this end, the controller 180 may acquire a search word related to a selected object through parsing a web page currently being displayed and display the search result searched using the obtained search word as a preview image. Meanwhile, the controller 180 may display the preview image after removing the duplicated content through filtering on the searched results.

제어부(180)는 웹 페이지에 포함된 객체들 중 위치정보를 가리키거나 위치정보가 태깅된 특정 객체가 근접 터치에 의해 선택되면, 선택된 객체가 가리키거나 선택된 객체에 태깅된 위치정보를 프리뷰 이미지로 표시할 수도 있다. 예를 들어, 선택된 객체가 가리키거나 선택된 객체에 태깅된 위치정보가 표시된 지도 이미지를 프리뷰 이미지를 표시할 수도 있다. The controller 180 previews the location information indicated by the selected object or tagged on the selected object when the specific information indicating the location information or the location information tagged tag is selected by the proximity touch among the objects included in the web page. You can also mark For example, a preview image may be displayed on a map image indicated by the selected object or displayed on location information tagged to the selected object.

한편, 상기 S103 단계에서, 제어부(180)는 프리뷰 이미지를 현재 표시 중인 웹 페이지의 일부 영역에 중첩하여 표시하며, 프리뷰 이미지가 표시되는 영역은 웹 페이지에서 근접 터치되는 객체의 위치에 따라서 결정될 수 있다. 또한, 제어부(180)는 반투명 상태로 표시되도록 프리뷰 이미지의 투명도를 제어할 수도 있다. Meanwhile, in step S103, the controller 180 displays the preview image overlaid on a portion of the web page currently being displayed, and the region where the preview image is displayed may be determined according to the position of the object that is in close proximity to the web page. . In addition, the controller 180 may control the transparency of the preview image to be displayed in a translucent state.

도 6 내지 도 10은 근접 터치된 객체와 관련된 아이템의 프리뷰 이미지를 표시하는 예들을 도시한 것이다. 6 to 10 illustrate examples of displaying a preview image of an item associated with a proximity touched object.

도 6을 참조하면, 제어부(180)는 뉴스들이 나열된 웹 페이지(6)를 터치 스크린(151)에 표시한 상태에서, 특정 뉴스 타이틀(6a)에 대한 근접 터치 입력을 수신한다. 이에 따라, 제어부(180)는 근접 터치된 뉴스 타이틀(6a)에 링크된 웹 페이지의 주소를 현재 표시 중인 웹 페이지(6)로부터 획득한다. 즉, 선택된 뉴스(6a)가 기재된 웹 페이지의 주소를 획득한다. Referring to FIG. 6, the controller 180 receives a proximity touch input for a specific news title 6a while displaying a web page 6 listing news stories on the touch screen 151. Accordingly, the controller 180 obtains the address of the web page linked to the near-touch news title 6a from the web page 6 currently being displayed. That is, the address of the web page where the selected news 6a is written is obtained.

이후, 제어부(180)는 획득한 웹 페이지의 주소를 토대로, 선택된 뉴스(6a)가 기재된 웹 페이지에 무선 통신부(110)를 접속한다. 또한, 해당 웹 페이지로부터 일부 데이터를 수신하여 웹 페이지의 프리뷰 이미지(6b)를 생성하고, 생성된 프리뷰 이미지(6b)를 화면의 일부 영역에 표시한다. 여기서, 프리뷰 이미지(6b)가 표시되는 영역은, 근접 터치된 위치를 토대로 설정될 수 있다. 예를 들어, 근접 터치된 지점으로부터 기 설정된 거리 내에 프리뷰 이미지(6b)를 표시할 수 있다. Thereafter, the controller 180 connects the wireless communication unit 110 to the web page on which the selected news 6a is described based on the obtained web page address. In addition, some data is received from the web page to generate a preview image 6b of the web page, and the generated preview image 6b is displayed on a part of the screen. Here, the area where the preview image 6b is displayed may be set based on the proximity touched position. For example, the preview image 6b may be displayed within a preset distance from the close touched point.

도 7을 참조하면, 제어부(180)는 웹 페이지 상에 표시된 지도 이미지(7)의 특정 위치(7a)에 대한 근접 터치 입력을 수신한다. 이에 따라, 제어부(180)는 지도 이미지(7)로부터 근접 터치된 위치(7a)의 위치정보를 획득한다. Referring to FIG. 7, the controller 180 receives a proximity touch input for a specific location 7a of a map image 7 displayed on a web page. Accordingly, the controller 180 obtains location information of the location 7a that is in close contact with the map image 7.

또한, 근접 터치된 위치(7a)에 링크되거나, 근접 터치된 위치(7a)와 관련된 웹 페이지가 존재하면, 해당 웹 페이지에 무선 통신부(110)를 통해 접속한다. 또한, 접속한 웹 페이지로부터 일부 데이터를 수신하여 웹 페이지의 프리뷰 이미지(7b)를 생성하고, 생성된 프리뷰 이미지(7b)를 화면의 일부 영역에 표시한다. In addition, if there is a web page linked to the proximity touched position 7a or associated with the proximity touched position 7a, the web page is connected to the corresponding web page through the wireless communication unit 110. In addition, some data is received from the connected web page to generate a preview image 7b of the web page, and the generated preview image 7b is displayed on a part of the screen.

도 7을 예로 들면, 지도 이미지(7)에서 '엘지 전자' 건물(7a)이 근접 터치됨에 따라, 제어부(180)는 '엘지 전자' 홈 페이지의 프리뷰 이미지(7b)를 터치 스크린(151)에 표시한다. 한편, 도 7에 도시된 바와 같이, 지도 이미지(7) 상에서 특정 지점이 근접 터치되면, 사용자가 자신이 어느 곳을 근접 터치하였는지 인지하기 쉽도록 식별명 예를 들어, '엘지 전자'(7c)를 선택된 지점으로부터 기 설정된 거리 이내에 표시할 수도 있다. Referring to FIG. 7, as the 'LG' building 7a is in close proximity to the map image 7, the controller 180 displays the preview image 7b of the 'LG' home page on the touch screen 151. Display. On the other hand, as shown in Figure 7, when a specific point on the map image 7 is in close proximity, the identification name, e. May be displayed within a preset distance from the selected point.

도 8을 참조하면, 제어부(180)는 웹 페이지(8)에 포함된 특정 동영상(8a)에 대한 근접 터치 입력을 수신한다. 이에 따라, 제어부(180)는 무선 통신부(110)를 통해 동영상(8a)이 저장된 웹 서버에 연결한다. 또한, 웹 서버로부터 동영상(8a)의 썸네일(thumbnail) 등 일부 데이터를 수신하고, 이를 토대로 선택된 동영상(8a)의 프리뷰 이미지(8b)를 생성한다. 또한, 생성된 프리뷰 이미지(8b)를 화면의 일부 영역에 표시한다. Referring to FIG. 8, the controller 180 receives a proximity touch input for a specific video 8a included in the web page 8. Accordingly, the controller 180 connects to the web server in which the video 8a is stored through the wireless communication unit 110. Further, some data such as a thumbnail of the video 8a is received from the web server, and a preview image 8b of the selected video 8a is generated based on the data. In addition, the generated preview image 8b is displayed on a part of the screen.

도 9를 참조하면, 제어부(180)는 웹 페이지(9)에 표시된 특정 텍스트(9a)에 대한 근접 터치 입력을 수신한다. 이에 따라, 제어부(180)는 선택된 텍스트(9a)와 관련된 뉴스들을 획득한다. 또한, 검색된 뉴스들을 포함하는 프리뷰 이미지(9b)를 생성하고, 생성된 프리뷰 이미지(9b)를 화면의 일부 영역에 표시한다. Referring to FIG. 9, the controller 180 receives a proximity touch input for a specific text 9a displayed on the web page 9. Accordingly, the controller 180 obtains news related to the selected text 9a. In addition, a preview image 9b including the retrieved news is generated, and the generated preview image 9b is displayed on a portion of the screen.

도 10을 참조하면, 제어부(180)는 웹 페이지(10)에서 특정 위치가 대응되어 있는 객체(예를 들어, 맛집 정보)(10a)에 대한 근접 터치 입력을 수신한다. 이에 따라, 제어부(180)는 웹 페이지(10)의 파싱을 통해 선택된 객체(10a)에 대응하는 위치정보를 획득한다. 또한, 획득한 위치정보가 표시된 지도 이미지에 해당하는 프리뷰 이미지(10b)를 생성하고, 생성된 프리뷰 이미지(10b)를 화면의 일부 영역에 표시한다. Referring to FIG. 10, the controller 180 receives a proximity touch input for an object (eg, restaurant information) 10a that corresponds to a specific location on the web page 10. Accordingly, the controller 180 obtains location information corresponding to the selected object 10a through parsing the web page 10. In addition, a preview image 10b corresponding to a map image on which the acquired location information is displayed is generated, and the generated preview image 10b is displayed on a partial region of the screen.

전술한 도 6 내지 도 10을 참조하면, 제어부(180)는 웹 페이지 상의 특정 객체를 근접 터치하면, 해당 객체에 링크된 웹 페이지의 프리뷰 이미지를 화면에 표시함으로써, 사용자가 대응하는 웹 페이지에 직접 방문하지 않고도 자신이 원하는 정보를 얻거나, 웹 페이지를 열어볼지 여부를 결정할 수 있다. 또한, 웹 페이지 상의 객체를 근접 터치하는 동작만으로, 관련된 뉴스나 검색 결과들을 미리 보는 것이 가능하다. 또한, 웹 페이지 상에 포함된 동영상을 재생시키지 않고도 미리 내용을 파악하는 것이 가능하며, 지도 검색 등의 별도 절차 없이도 특정 객체에 대응하는 위치를 지도 상에서 미리 확인하거나, 지도 상의 특정 위치에 링크된 웹 페이지를 미리 확인하는 것이 가능하다. 6 to 10, when the controller 180 touches a specific object on the web page in close proximity, the controller 180 displays a preview image of the web page linked to the object on the screen, whereby the user directly touches the corresponding web page. You can decide whether to get the information you want or visit a web page without visiting. In addition, it is possible to preview related news or search results by only touching the object on the web page in close proximity. In addition, it is possible to grasp the contents in advance without playing a video included on the web page, and to check the position corresponding to a specific object in advance on the map without a separate procedure such as a map search, or to a web linked to a specific position on the map. It is possible to check the page in advance.

한편, 다시 도 5를 보면, 상기 S103 단계에서, 제어부(180)는 근접 터치 깊이에 따라서 화면에 표시되는 프리뷰 이미지의 크기, 프리뷰 이미지로 표시되는 정보 등을 다르게 제어할 수 있다. Meanwhile, referring back to FIG. 5, in step S103, the controller 180 may differently control the size of the preview image displayed on the screen, information displayed as the preview image, and the like according to the proximity touch depth.

예를 들어, 제어부(180)는 디스플레이 면에 가깝게 근접 터치될수록 프리뷰 이미지를 확대하여 표시할 수 있다. For example, the controller 180 may enlarge and display the preview image as the proximity touches the closer to the display surface.

또한, 예를 들어, 제어부(180)는 근접 터치 입력이 디스플레이 면으로부터 가까운 곳에서 발생할수록 프리뷰 이미지로 표시되는 정보를 증가시킬 수 있다. 관련된 뉴스를 표시하는 경우를 예로 들면, 근접 터치 입력이 디스플레이 면으로부터 가까운 곳에서 발생할수록 검색된 뉴스들 중 프리뷰 이미지에 포함되는 뉴스의 개수를 증가시켜 표시할 수도 있다. 한편, 근접 터치 입력이 디스플레이 면으로부터 가까운 곳에서 발생할수록 프리뷰 이미지에 포함되는 정보가 늘어나므로, 제어부(180)는 근접 터치 입력이 디스플레이 면으로부터 가까운 곳에서 발생할수록 추가되는 정보로 인해 프리뷰 이미지를 증가시켜 표시할 수 있다. For example, the controller 180 may increase the information displayed in the preview image as the proximity touch input occurs closer to the display surface. As an example of displaying related news, as the proximity touch input occurs closer to the display surface, the number of news included in the preview image among the searched news may be increased. Meanwhile, as the proximity touch input occurs closer to the display surface, the information included in the preview image increases, so the controller 180 increases the preview image due to the added information as the proximity touch input occurs closer to the display surface. Can be displayed.

또한, 예를 들어, 제어부(180)는 디스플레이 면에서 가까운 곳이 근접 터치될수록 상세 정보가 포함된 프리뷰 이미지를 표시할 수도 있다. 지도 이미지를 표시하는 경우를 예로 들면, 근접 터치 입력이 디스플레이 면으로부터 가까운 곳에서 발생할수록 상세 지도 이미지를 표시할 수도 있다. For example, the controller 180 may display the preview image including the detailed information as the nearer the closer the touch surface is, the closer the touch screen is. As an example of displaying a map image, a detailed map image may be displayed as the proximity touch input occurs closer to the display surface.

도 11 및 도 12는 상기 S103 단계에서, 근접 터치 깊이에 따른 프리뷰 이미지의 표시 방법을 나타내는 화면의 예들을 도시한 것이다. 11 and 12 illustrate examples of screens showing a method of displaying a preview image according to a proximity touch depth in step S103.

도 11 및 도 12의 (a)는 디스플레이 면으로부터 D3 깊이에 해당하는 지점이 근접 터치되는 경우를 도시한 것이고, (b)는 (a)의 D3보다 디스플레이 면으로부터 가까운 D1 깊이에 해당하는 지점이 근접 터치되는 경우를 도시한 것이다. (A) of FIG. 11 and FIG. 12 show a case where a point corresponding to the depth of D3 is close to the display surface, and (b) shows a point corresponding to the depth of D1 closer to the display surface than the D3 of (a). The case of proximity touch is shown.

도 11을 참조하면, 제어부(180)는 디스플레이 면으로부터 근접한 위치가 근접 터치될수록 선택된 동영상의 프리뷰 이미지(11a)를 확대하여 표시한다. Referring to FIG. 11, the controller 180 enlarges and displays the preview image 11a of the selected video as the position closer to the position from the display surface is closer to the touch.

또한, 도 12를 참조하면, 제어부(180)는 디스플레이 면으로부터 근접한 위치가 근접 터치될수록 상세 지도 이미지를 프리뷰 이미지(12a)로 표시한다. 이 경우, 프리뷰 이미지(12a)의 크기는 근접 깊이에 상관 없이 동일할 수도 있다. In addition, referring to FIG. 12, the controller 180 displays the detailed map image as the preview image 12a as the proximity to the location near the display surface is touched. In this case, the size of the preview image 12a may be the same regardless of the proximity depth.

다시, 도 5를 보면, 상기 S104 단계에서, 아이템의 프리로딩을 요청하는 제어 입력은 다양한 방법으로 입력될 수 있다. Referring back to FIG. 5, in step S104, a control input for requesting preloading of an item may be input in various ways.

상기 아이템 프리로딩 요청은, 근접 터치에 의한 제스처 입력을 통해 입력될 수 있다. The item preloading request may be input through a gesture input by a proximity touch.

예를 들어, 상기 아이템 프리로딩 요청은 근접 터치에 의한 플리킹, 드래그, 프레스 등의 단순 터치 제스처에 의해 수신될 수 있다. 즉, 제어부(180)는 사용자가 상기 S102 단계에서 근접 터치된 객체 또는 상기 S103 단계에서 표시되는 프리뷰 이미지를 근접 터치하여 플리킹하거나, 근접 터치된 상태로 드래그하거나 근접 터치된 상태를 기 설정된 시간 이상 유지하면, 상기 아이템 프리로딩 요청을 수신할 수 있다. For example, the item preloading request may be received by a simple touch gesture such as flicking, dragging, or pressing by a proximity touch. That is, the controller 180 may close the user's proximity touch in the step S102 or the preview image displayed in the step S103 by flicking, dragging or moving the proximity touch to the proximity touch state for a preset time or more. If so, the item preloading request can be received.

또한, 예를 들어, 상기 아이템 프리로딩 요청은 'O', 'I' 등 특정 궤적을 따라서 이어지는 근접 터치 제스처에 의해 수신될 수도 있다. 제어부(180)는 상기 S102 단계에서 근접 터치에 의해 어느 하나의 객체를 선택한 상태에서 근접 터치에 의한 제스처가 입력되면, 근접 터치된 터치 경로를 분석하고, 분석 결과에 기반하여 입력된 터치 제스처를 구별할 수 있다. 한편, 특정 궤적을 그리는 근접 터치 제스처에 의해 상기 아이템 프리로딩 요청이 수신되는 경우, 제어부(180)는 입력되는 근접 터치 제스처에 따라서 프리 로딩되는 아이템을 서로 다른 카테고리로 구분하여 저장할 수 있다. 예를 들어, 'O' 제스처가 입력되는 경우와 'I' 제스처가 입력되는 경우에 대해서, 프리로딩 되는 아이템을 서로 다른 카테고리로 구분하여 저장할 수 있다. Also, for example, the item preloading request may be received by a proximity touch gesture that follows a specific trajectory such as 'O' or 'I'. If a gesture by a proximity touch is input in the state where one object is selected by the proximity touch in step S102, the controller 180 analyzes the proximity touch path and distinguishes the input touch gesture based on the analysis result. can do. Meanwhile, when the item preloading request is received by a proximity touch gesture that draws a specific trajectory, the controller 180 may classify and store items that are preloaded into different categories according to the input proximity touch gesture. For example, when the 'O' gesture is input and the 'I' gesture is input, the preloaded items may be classified and stored in different categories.

또한, 예를 들어, 상기 아이템 프리로딩 요청은, 화면에 표시된 폴더, 서랍 등의 특정 객체로 선택된 객체를 보내기 위한 플리킹, 드래그 등의 근접 터치 제스처에 의해 수신될 수 있다. Also, for example, the item preloading request may be received by a proximity touch gesture such as flicking or dragging to send a selected object to a specific object such as a folder or a drawer displayed on the screen.

상기 아이템 프리로딩 요청은 센싱부(140)를 통해 감지되는 이동 단말기(100)의 움직임에 의해 입력될 수 있다. The item preloading request may be input by the movement of the mobile terminal 100 detected by the sensing unit 140.

예를 들어, 상기 아이템 프리로딩 요청은 이동 단말기(100)가 특정 방향으로 회전함에 따라 수신될 수 있다. 제어부(180)는 이동 단말기(100)의 뷰 모드가 세로 뷰(portrait view) 모드에서 가로 뷰(landscape view) 모드로 또는 가로 뷰 모드에서 세로 뷰 모드로 전환되도록 이동 단말기(100) 바디가 회전함에 따라, 상기 아이템 프리로딩 요청을 수신할 수 있다. For example, the item preloading request may be received as the mobile terminal 100 rotates in a specific direction. The controller 180 rotates the body of the mobile terminal 100 such that the view mode of the mobile terminal 100 is switched from the portrait view mode to the landscape view mode or from the landscape view mode to the portrait view mode. Accordingly, the item preloading request may be received.

또한, 예를 들어, 이동 단말기(100) 바디의 특정 영역이 태핑됨에 따라 상기 아이템 프리로딩 요청을 수신할 수도 있다. Also, for example, as a specific area of the body of the mobile terminal 100 is tapped, the item preloading request may be received.

또한, 예를 들어, 이동 단말기(100) 바디가 특정 방향으로 틸팅됨에 따라, 상기 아이템 프리로딩 요청을 수신할 수도 있다. Also, for example, as the body of the mobile terminal 100 is tilted in a specific direction, the item preloading request may be received.

도 13 내지 도 16은 프리뷰 중인 아이템의 프리로딩을 요청하는 제어 입력을 수신하는 방법의 예들을 도시한 것이다. 13 through 16 illustrate examples of a method of receiving a control input requesting preloading of an item being previewed.

도 13을 참조하면, 제어부(180)는 근접 터치 입력에 의해 선택된 동영상의 프리뷰 이미지(13a)를 표시한 상태에서, 프리뷰 이미지(13a)가 근접 터치에 의해 플리킹됨에 따라, 선택된 동영상의 프리로딩 요청을 수신할 수 있다. Referring to FIG. 13, the controller 180 preloads the selected video as the preview image 13a is flickered by the proximity touch while displaying the preview image 13a of the video selected by the proximity touch input. The request can be received.

도 14를 참조하면, 제어부(180)는 근접 터치에 의해 선택된 동영상의 프리뷰 이미지(13a)를 표시한 상태에서, 근접 터치에 의해 'O' 제스처가 입력되면, 선택된 동영상의 프리로딩 요청을 수신할 수도 있다. Referring to FIG. 14, when the 'O' gesture is input by the proximity touch while the preview image 13a of the video selected by the proximity touch is displayed, the controller 180 may receive a preloading request of the selected video. It may be.

도 15를 참조하면, 제어부(180)는 근접 터치에 의해 선택된 동영상의 프리뷰 이미지(13a)를 표시한 상태에서, 근접 터치에 의해 프리뷰 이미지(13a)가 특정 방향으로 플리킹되거나 드래그되면, 선택된 동영상의 프리로딩 요청을 수신하게 된다. 또한, 도 15의 (a)에 도시된 바와 같이, 대응하는 방향의 화면 가장 자리(edge)로부터 점차적으로 나타나는 서랍 형태의 영역(15)을 터치 스크린(151)에 표시하고, 도 15의 (b)에 도시된 바와 같이, 프리뷰 이미지(13a)의 축소 이미지를 서랍 형태의 영역(15)으로 이동시켜 표시함으로써, 선택된 동영상이 프리로딩 요청되었음을 나타낸다. 한편, 선택된 동영상이 서랍 형태의 공간(15)으로 이동하면, 제어부(180)는 서랍 형태의 공간(15)을 점차적으로 화면 가장 자리로 사라지도록 제어한다. Referring to FIG. 15, when the preview image 13a is flickered or dragged in a specific direction by the proximity touch, the controller 180 displays the preview image 13a of the video selected by the proximity touch. You will receive a preloading request for. In addition, as shown in FIG. 15A, a drawer-shaped region 15 gradually appearing from the screen edge of the corresponding direction is displayed on the touch screen 151, and FIG. 15B As shown by), by moving the reduced image of the preview image 13a to the drawer-shaped area 15 to display, it indicates that the selected video is requested to be preloaded. Meanwhile, when the selected video moves to the drawer-shaped space 15, the controller 180 controls the drawer-shaped space 15 to gradually disappear to the screen edge.

도 16을 참조하면, 제어부(180)는 도 16의 (a)에 도시된 바와 같이, 터치 스크린(151)이 세로 뷰 상태로 놓여 있는 중에 근접 터치에 의해 어느 하나의 객체가 선택되고, 이후 이동 단말기(100) 바디가 특정 방향으로 회전하여 도 16의 (b)에 도시된 바와 같이 터치 스크린(151)이 가로 뷰 상태로 놓이면, 선택된 객체와 관련하여 아이템 프리로딩 요청을 수신할 수도 있다. Referring to FIG. 16, as illustrated in FIG. 16A, any one object is selected by a proximity touch while the touch screen 151 is placed in a vertical view state, and then the controller 180 moves. When the body of the terminal 100 rotates in a specific direction and the touch screen 151 is placed in the horizontal view state as shown in FIG. 16B, an item preloading request may be received in relation to the selected object.

한편, 상기 S105 단계에서, 아이템 프리로딩이 시작되면, 제어부(180)는 상태 바(status bar) 상에 아이템이 프리로딩 중임을 나타내는 아이콘을 표시하고, 프리로딩이 완료되면, 프리로딩이 완료되었음을 나타내는 아이콘을 상태 바에 표시할 수도 있다. Meanwhile, in step S105, when item preloading is started, the controller 180 displays an icon indicating that the item is being preloaded on a status bar, and when the preloading is completed, the preloading is completed. You can also display the icon to indicate in the status bar.

다시, 도 5를 보면, 상기 S106 단계에서, 프리로딩된 아이템 표시를 요청하는 제어 입력은 다양한 방법에 의해 수신될 수 있다. Referring back to FIG. 5, in step S106, a control input for requesting display of a preloaded item may be received by various methods.

제어부(180)는 근접 터치 제스처에 의해 아이템 표시 요청을 수신할 수 있다. The controller 180 may receive an item display request by a proximity touch gesture.

예를 들어, 제어부(180)는 근접 터치에 화면의 가장 자리(edge) 또는 베젤(bezel)에서 화면의 중앙을 향하는 플리킹, 드래그 등의 터치 제스처가 입력됨에 따라, 상기 아이템 표시 요청을 수신할 수 있다. For example, the controller 180 may receive the item display request as a touch gesture such as flicking or dragging toward the center of the screen from the edge or bezel of the screen is input to the proximity touch. Can be.

또한, 예를 들어, 제어부(180)는 'O', 'I' 등 특정 궤적을 따라서 이어지는 근접 터치 제스처에 의해 상기 아이템 표시 요청을 수신될 수도 있다. 제어부(180)는 프리로딩 단계에서 입력되는 근접 터치 제스처에 따라서 프리 로딩되는 아이템을 서로 다른 카테고리로 구분하여 저장하고, 특정 제스처를 이용하여 프리로딩된 아이템을 불러오는 경우, 입력된 제스처에 대응하는 카테고리의 아이템들만 불러올 수도 있다. 예를 들어, 상기 아이템 프리로딩 요청으로 'O' 제스처가 입력되는 경우와 'I' 제스처가 입력되는 경우에 대해서, 프리로딩 되는 아이템을 서로 다른 카테고리로 구분하여 저장하고, 상기 아이템 표시 요청으로 'O' 제스처가 입력되면, 'O' 제스처에 대응하는 카테고리의 프리로딩 아이템들만 불러와 표시할 수 있다. Also, for example, the controller 180 may receive the item display request by a proximity touch gesture that follows a specific trajectory such as 'O' or 'I'. The controller 180 classifies and stores the preloaded items into different categories according to the proximity touch gesture input in the preloading step, and when a preloaded item is called using a specific gesture, the category corresponding to the input gesture. Only items in can be loaded. For example, when the 'O' gesture is inputted as the item preloading request and the 'I' gesture is inputted, the preloaded items are classified and stored in different categories, and as 'item display request' When the O 'gesture is input, only preloading items of a category corresponding to the' O 'gesture may be called and displayed.

제어부(180)는, 상태 바 등에 프리로딩된 아이템이 있음을 나타내는 아이콘을 표시하고, 해당 아이콘이 터치됨에 따라 상기 아이템 표시 요청을 수신할 수도 있다. 이 경우, 제어부(180)는 프리로딩된 아이템의 개수를 프리로딩된 아이템이 존재함을 나타내는 아이콘과 결합하여 표시할 수 있다. The controller 180 may display an icon indicating that there is an item preloaded on a status bar or the like, and receive the item display request as the icon is touched. In this case, the controller 180 may display the number of preloaded items in combination with an icon indicating that the preloaded items exist.

제어부(180)는 화면의 가장자리(edge)에 프리로딩된 아이템들을 담기 위한 서랍 형태의 그래픽 사용자 인터페이스(Graphic User Interface, GUI)를 표시하고, 서랍 형태의 GUI를 드래그하여 펼치는 터치 제스처가 입력됨에 따라, 상기 아이템 표시 요청을 수신할 수도 있다. 이 경우, 제어부(180)는 서랍 형태의 영역에 표시되는 프리로딩 아이템들 중 어느 하나가 사용자에 의해 선택되면, 선택된 아이템을 화면에 표시할 수 있다. The controller 180 displays a drawer-type graphic user interface (GUI) for storing preloaded items on the edge of the screen, and as a touch gesture for dragging and unfolding a drawer-type GUI is inputted, The item display request may be received. In this case, if any one of the preloading items displayed in the drawer-shaped area is selected by the user, the controller 180 may display the selected item on the screen.

제어부(180)는 센싱부(140)를 통해 감지되는 이동 단말기(100)의 움직임을 토대로 아이템 표시 요청을 수신할 수도 있다. 제어부(180)는 전술한 도 16에 도시된 바와 같이, 이동 단말기(100)의 뷰 모드가 세로 뷰(portrait view) 모드에서 가로 뷰(landscape view) 모드로 또는 가로 뷰 모드에서 세로 뷰 모드로 전환되도록 이동 단말기(100) 바디가 회전함에 따라, 상기 아이템 표시 요청을 수신할 수 있다. The controller 180 may receive an item display request based on the movement of the mobile terminal 100 sensed by the sensing unit 140. As illustrated in FIG. 16, the controller 180 switches the view mode of the mobile terminal 100 from the portrait view mode to the landscape view mode or from the landscape view mode to the portrait view mode. As the body of the mobile terminal 100 rotates, the item display request may be received.

도 17 내지 도 19는 상기 S106 단계에서, 프리로딩된 아이템의 표시를 요청하는 제어 입력을 수신하는 방법의 예들을 도시한 것이다. 17 to 19 illustrate examples of a method of receiving a control input for requesting display of a preloaded item in step S106.

도 17을 참조하면, 제어부(180)는 이동 단말기(100) 바디의 베젤 부분으로부터 터치 스크린(151) 안쪽으로 이어지는 드래그 입력이 수신됨에 따라, 프리로딩된 아이템의 표시 요청을 수신할 수 있다. Referring to FIG. 17, the controller 180 may receive a display request of a preloaded item as a drag input leading into the touch screen 151 is received from the bezel portion of the body of the mobile terminal 100.

도 18을 참조하면, 제어부(180)는 화면의 일부 영역 예를 들어, 상태 바에 프리로딩된 아이템이 있음을 나타내는 아이콘(18a)을 프리로딩된 아이템의 개수(18b)와 결합하여 표시한다. 이후, 제어부(180)는 해당 아이콘(18a)이 터치됨에 따라, 프리로딩된 아이템의 표시 요청을 수신할 수 있다. Referring to FIG. 18, the controller 180 displays an icon 18a indicating that there is a preloaded item in a partial area of the screen, for example, in combination with the number 18b of preloaded items. Thereafter, as the icon 18a is touched, the controller 180 may receive a display request for the preloaded item.

도 19를 참조하면, 제어부(180)는 화면 가장자리에서 안쪽으로 이어지는 드래그 입력이 수신됨에 따라, 프리로딩된 아이템의 표시 요청을 수신한다. 이에 따라, 제어부(180)는 프리로딩된 아이템을 담아두었던 서랍 형태의 공간(19)을 드래그 입력에 따라서 점차적으로 화면에 나타나도록 제어하고, 서랍 형태의 공간(19)에 프리로딩된 적어도 하나의 아이템(19a)을 표시한다. 이후, 제어부(180)는 서랍 형태의 공간(19)에 표시되는 적어도 하나의 아이템 중 어느 하나의 아이템이 선택되면, 선택된 아이템의 프리로딩된 데이터를 이용하여 선택된 아이템을 터치 스크린(151)에 표시할 수 있다. Referring to FIG. 19, the controller 180 receives a display request of a preloaded item as a drag input leading inward from the edge of the screen is received. Accordingly, the controller 180 controls the drawer-shaped space 19 containing the preloaded items to gradually appear on the screen according to a drag input, and at least one preloaded in the drawer-shaped space 19. The item 19a is displayed. Subsequently, when any one of at least one item displayed in the drawer-shaped space 19 is selected, the controller 180 displays the selected item on the touch screen 151 using preloaded data of the selected item. can do.

다시 도 5를 보면, 상기 S107 단계에서, 제어부(180)는 프리로딩된 아이템들을 다양한 방법으로 표시할 수 있다. Referring to FIG. 5 again, in step S107, the controller 180 can display the preloaded items in various ways.

제어부(180)는 화면의 일부 영역에 프리로딩된 아이템들의 리스트를 표시하고, 리스트에서 어느 하나의 아이템이 선택되면, 선택된 아이템을 터치 스크린(151)에 표시한다. 또한, 선택된 아이템이 동영상이거나 오디오인 경우에는, 선택된 아이템을 재생할 수도 있다. 한편, 프리로딩된 아이템들의 리스트는, 사용자가 각 아이템을 미리보는 것이 가능하도록 각 아이템의 썸네일(thumbnail)을 이용하여 표시될 수 있다. The controller 180 displays a list of preloaded items in a partial region of the screen, and if any one item is selected from the list, displays the selected item on the touch screen 151. In addition, when the selected item is a video or audio, the selected item may be played. Meanwhile, the list of preloaded items may be displayed using a thumbnail of each item so that the user can preview each item.

제어부(180)는 프리로딩된 아이템들 중 적어도 하나를 터치 스크린(151)에 표시하고, 플리킹 등의 터치 입력에 기반하여 터치 스크린(151)에 표시되는 아이템을 전환할 수도 있다. 예를 들어, 상기 아이템 표시 요청이 수신되면, 제어부(180)는 가장 최근에 프리로딩된 적어도 하나의 아이템을 터치 스크린(151)에 표시하고, 플리킹 입력이 수신될 때마다 화면에 표시되는 아이템을 변경하여 표시할 수 있다. The controller 180 may display at least one of the preloaded items on the touch screen 151 and switch items displayed on the touch screen 151 based on a touch input such as flicking. For example, when the item display request is received, the controller 180 displays at least one most recently preloaded item on the touch screen 151, and the item displayed on the screen every time a flicking input is received. Can be changed to display.

한편, 본 발명의 제1 실시 예에 따르면, 제어부(180)는 프리로딩된 웹 페이지를 표시하는 중에 근접 터치를 이용하여 표시 중인 웹 페이지를 즐겨찾기(favorite) 또는 북마크(bookmark)로 저장할 수도 있다. 예를 들어, 제어부(180)는 프리로딩된 웹 페이지를 표시하는 중에 웹 페이지가 근접 터치되면, 즐겨 찾기 또는 북마크로 저장할 수 있는 아이콘, 메뉴항목 등을 표시하고, 사용자에 의해 선택되는 아이콘 또는 메뉴 항목에 따라서 해당 웹 페이지를 즐겨 찾기 또는 북마크로 저장할 수 있다. Meanwhile, according to the first embodiment of the present disclosure, the controller 180 may store the web page being displayed as a favorite or a bookmark by using a proximity touch while displaying the preloaded web page. . For example, the controller 180 displays an icon, a menu item, etc., which can be saved as a favorite or a bookmark, when the web page is in close touch while displaying a preloaded web page, and an icon or menu selected by the user. Depending on the item, you can save the web page as a favorite or bookmark.

또한, 본 발명의 제1 실시 예에 따르면, 제어부(180)는 근접 터치된 객체와 관련된 아이템의 프리뷰 이미지를 표시하는 중에 입력되는 터치 제스처에 따라서, 해당 아이템을 프리로딩할 수도 있고, 근접 터치된 객체와 관련된 뉴스 또는 검색 내용을 표시할 수도 있다. In addition, according to the first embodiment of the present disclosure, the controller 180 may preload the corresponding item or the proximity touch according to a touch gesture input while displaying the preview image of the item related to the proximity touched object. You can also display news or search content related to the object.

도 20은 근접 터치된 객체와 관련된 아이템의 프리뷰 이미지를 표시한 상태에 입력되는 터치 제스처에 따라서 서로 다른 기능을 수행하는 예를 도시한 것이다. 20 illustrates an example of performing different functions according to a touch gesture input while displaying a preview image of an item related to a proximity touched object.

도 20을 참조하면, 제어부(180)는 웹 페이지에 포함된 동영상에 대한 근접 터치입력이 수신됨에 따라, 도 20의 (a)에 도시된 바와 같이 근접 터치에 의해 선택된 동영상의 프리뷰 이미지(20a)를 표시한다. Referring to FIG. 20, when a proximity touch input for a video included in a web page is received, the controller 180 may preview the image 20a of the video selected by the proximity touch as illustrated in FIG. 20A. Is displayed.

또한, 제어부(180)는 도 20의 (b)에 도시된 바와 같이, 근접 터치에 의해 프리뷰 이미지(20a)가 우측으로 플리킹됨에 따라, 선택된 동영상을 프리로딩한다. In addition, as shown in FIG. 20B, the controller 180 preloads the selected video as the preview image 20a is flicked to the right by the proximity touch.

반면에, 제어부(180)는 도 20의 (c)에 도시된 바와 같이, 근접 터치에 의해 프리뷰 이미지(20a)가 좌측으로 플리킹됨에 따라, 선택된 동영상과 관련된 뉴스들을 검색하고, 검색된 뉴스들의 프리뷰 이미지(20b)를 도 20의 (d)에 도시된 바와 같이 표시한다. On the other hand, as shown in (c) of FIG. 20, the controller 180 searches for news related to the selected video and previews the searched news as the preview image 20a is flicked to the left by the proximity touch. The image 20b is displayed as shown in Fig. 20D.

전술한 바와 같이, 본 발명의 제1 실시 예에 따르면, 사용자는 근접 터치를 활용하여 웹 페이지를 직접 방문하거나 컨텐츠를 실행시킬 필요 없이 정보를 확인하는 것이 가능하고, 별도의 검색 과정 없이도 특정 객체와 관련된 뉴스, 검색 결과, 위치 정보 등을 확인하는 것이 가능하여, 사용자의 편의성을 증대시키는 효과가 있다. 또한, 접촉 터치와 별도로 근접 터치를 제어 입력으로 사용함으로써, 근접 터치의 사용성을 높이는 효과가 있다. As described above, according to the first exemplary embodiment of the present invention, the user may check information without directly visiting a web page or executing content by using a proximity touch, and may check a specific object without a separate searching process. It is possible to check related news, search results, location information, etc., thereby increasing the convenience of the user. In addition, by using the proximity touch as a control input separately from the contact touch, the usability of the proximity touch is improved.

또한, 종래에는, 사용자는 확인하고자 하는 웹 페이지가 있을 때마다 해당 웹 페이지로 이동 했다가 다시 자신이 작업 중이던 웹 페이지로 돌아가야 했다. 특히, 확인하고자 하는 웹 페이지가 많을수록 사용자의 조작 횟수 또한 증가하여 사용자의 불편함이 증대되는 문제점이 있었다. 그러나, 본 발명의 제1 실시 예에 따르면, 이동 단말기는 프리로딩을 도입하여 확인하고자 하는 웹 페이지를 미리 로딩하여 한꺼번에 확인하는 것이 가능하므로, 사용자의 조작 횟수를 최소화하여 사용자 편의성이 증대되는 효과가 있다.
Also, in the related art, whenever a user wants to check a web page, the user has to go to the web page and then return to the web page he was working on. In particular, as the number of web pages to be checked increases, the user's operation number also increases, causing inconvenience of the user. However, according to the first embodiment of the present invention, since the mobile terminal can pre-load the web page to be checked by introducing preloading and check it at once, the user's convenience is minimized by minimizing the number of user's manipulations. have.

이하, 필요한 도면들을 참조하여 본 발명의 제2 실시 예에 따른 이동 단말기의 제어 방법 및 이를 구현하기 위한 이동 단말기의 동작에 대하여 상세하게 설명한다. Hereinafter, a method of controlling a mobile terminal and an operation of a mobile terminal for implementing the same according to a second embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 21은 본 발명의 제2 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다. 또한, 도 22 내지 도 25는 도 21에 개시된 방법을 설명하기 위한 도면들이다. 21 is a flowchart illustrating a control method of a mobile terminal according to a second embodiment of the present invention. 22 to 25 are diagrams for describing the method disclosed in FIG. 21.

도 21을 참조하면, 제어부(180)는 웹 브라우저와 연동하고자 하는 특정 어플리케이션을 실행한다(S201). 예를 들어, 제어부(180)는 지도 어플리케이션, 날씨 어플리케이션 등을 실행한다. Referring to FIG. 21, the controller 180 executes a specific application to be linked with a web browser (S201). For example, the controller 180 executes a map application, a weather application, and the like.

이후, 제어부(180)는 웹 브라우저를 실행시켜 무선 통신부(110)를 통해 웹 서버에 접속하고, 웹 서버로부터 웹 페이지를 로딩(load)하여 터치 스크린(151)에 표시한다(S202). Thereafter, the controller 180 executes a web browser to access the web server through the wireless communication unit 110, loads a web page from the web server, and displays the web page on the touch screen 151 (S202).

또한, 제어부(180)는 표시 중인 웹 페이지의 특정 객체가 근접 터치됨에 따라(S203), 근접 터치된 객체와 관련하여 상기 S201 단계에서 실행된 어플리케이션의 기능을 실행한다 (S204). 또한, 상기 S204 단계에서의 어플리케이션 실행 화면을 프리뷰 이미지로 터치 스크린(151)에 표시한다(S205). In addition, as the specific object of the web page being displayed is in close proximity touch (S203), the controller 180 executes the function of the application executed in step S201 with respect to the proximity touched object (S204). In addition, the application execution screen in step S204 is displayed on the touch screen 151 as a preview image (S205).

또한, 제어부(180)는 상기 S205 단계에서 표시되는 프리뷰 이미지의 저장이 요청됨에 따라(S206), 프리뷰 이미지를 메모리(160)에 저장한다(S207). In addition, the controller 180 stores the preview image in the memory 160 as the storage of the preview image displayed in step S205 is requested (S206).

상기 S201 단계에서, 제어부(180)는 사용자 입력부(130)를 통해 입력되는 제어 입력에 기반하여, 웹 브라우저와 연동 가능한 어플리케이션을 실행시킨다. 여기서, 실행된 어플리케이션은 추후 웹 페이지에 포함된 특정 객체가 근접 터치에 의해 선택되면, 선택된 객체에 대한 정보를 웹 브라우저로부터 수신하고, 수신된 정보를 이용하여 어플리케이션 기능을 수행한다. 또한, 수행 결과를 프리뷰 이미지로 터치 스크린(151) 상에 표시한다. In step S201, the controller 180 executes an application that can be linked with a web browser, based on a control input input through the user input unit 130. Here, when the specific object included in the web page is selected by the proximity touch later, the executed application receives information about the selected object from the web browser and performs an application function using the received information. In addition, the execution result is displayed on the touch screen 151 as a preview image.

상기 S203 단계에서, 근접 터치에 의해 선택되는 객체는 웹 페이지에 표시되는 텍스트, 이미지, 동영상, 버튼, 아이콘 등을 포함할 수 있다. In operation S203, the object selected by the proximity touch may include text, an image, a video, a button, an icon, and the like displayed on a web page.

또한, 상기 S203 단계에서, 제어부(180)는 근접 터치에 의해 어느 하나의 객체가 선택되면, 선택된 객체를 강조하기 위해 선택된 객체의 표시 특성을 제어할 수 있다. 예를 들어, 선택된 객체에 대해 밑줄 표시, 음영 처리, 텍스트 굵기, 텍스트 색상 등을 제어하여 해당 객체가 선택되었음을 표시할 수 있다. In addition, in operation S203, when any one object is selected by the proximity touch, the controller 180 may control display characteristics of the selected object to emphasize the selected object. For example, the selected object may be displayed by controlling underlining, shading, text thickness, and text color.

상기 S204 단계에서, 근접 터치된 객체를 이용하여 상기 S201 단계에서 실행된 어플리케이션의 기능을 실행하는 다양한 실시 예가 구현 가능하다. In operation S204, various embodiments of executing a function of an application executed in operation S201 using a proximity touch object may be implemented.

상기 S201 단계에서 실행된 어플리케이션이 지도 어플리케이션인 경우를 예로 들면, 제어부(180)는 상기 S203 단계에서 근접 터치된 객체와 관련된 위치 정보를 획득하고, 지도 어플리케이션을 통해 획득한 위치 정보에 대응하는 지도 이미지를 획득할 수 있다. For example, when the application executed in the step S201 is a map application, the controller 180 obtains location information related to the object touched in close proximity to step S203 and maps the image corresponding to the location information acquired through the map application. Can be obtained.

예를 들어, 근접 터치된 객체가 특정 웹 페이지의 링크인 경우, 링크된 웹 페이지에 대응하는 위치 정보를 획득한다. 또한, 획득한 위치정보를 지도 어플리케이션으로 전달함으로써, 지도 어플리케이션을 통해 획득한 위치정보가 표시된 지도 이미지를 획득할 수 있다. 한편, 제어부(180)는 현재 표시 중인 웹 페이지를 파싱하거나, 근접 터치된 링크에 링크된 웹 페이지를 파싱하여 위치정보를 획득할 수 있다. For example, when the proximity touched object is a link of a specific web page, location information corresponding to the linked web page is obtained. In addition, by passing the acquired location information to the map application, it is possible to obtain a map image on which the location information obtained through the map application is displayed. The controller 180 may obtain location information by parsing a web page currently being displayed or by parsing a web page linked to a proximity touched link.

또한, 예를 들어, 근접 터치된 객체가 특정 주소를 가리키는 텍스트인 경우, 텍스트를 분석하여 위치정보를 획득한다. 또한, 획득한 위치정보를 지도 어플리케이션으로 전달함으로써, 지도 어플리케이션을 통해 해당 주소에 대응하는 위치가 표시되는 지도 이미지를 획득할 수도 있다. Also, for example, when the proximity touched object is text indicating a specific address, the text is analyzed to obtain location information. In addition, by transmitting the acquired location information to the map application, it is also possible to obtain a map image that displays the location corresponding to the address through the map application.

또한, 예를 들어, 근접 터치된 객체가 이미지, 동영상, 전자문서 등의 컨텐츠인 경우, 해당 컨텐츠가 위치하는 웹 페이지를 파싱하여 위치정보를 획득한다. 또한, 획득한 위치정보를 지도 어플리케이션으로 전달함으로서, 지도 어플리케이션을 통해 획득한 위치정보에 대응하는 위치가 표시된 지도 이미지를 획득할 수도 있다.For example, when the proximity touched object is content such as an image, a video, or an electronic document, location information is obtained by parsing a web page where the content is located. In addition, by transferring the acquired location information to the map application, a map image in which a location corresponding to the location information obtained through the map application is displayed may be obtained.

상기 S201 단계에서 실행된 어플리케이션이 날씨 어플리케이션인 경우를 예로 들면, 제어부(180)는 상기 S203 단계에서 근접 터치된 객체와 관련된 위치 정보를 획득하고, 날씨 어플리케이션을 통해 획득한 위치 정보에 대응하는 날씨 정보를 획득할 수 있다. For example, when the application executed in step S201 is a weather application, the controller 180 obtains location information related to an object that is touched in close proximity to step S203, and weather information corresponding to the location information obtained through the weather application. Can be obtained.

예를 들어, 근접 터치된 객체가 특정 웹 페이지의 링크인 경우, 제어부(180)는 링크된 웹 페이지에 대응하는 위치 정보를 획득한다. 또한, 획득한 위치정보를 날씨 어플리케이션으로 전달함으로써, 날씨 어플리케이션을 통해 획득한 위치정보에 대응하는 날씨 정보를 획득할 수 있다. For example, when the proximity touched object is a link of a specific web page, the controller 180 obtains location information corresponding to the linked web page. In addition, by transmitting the acquired location information to the weather application, it is possible to obtain weather information corresponding to the location information obtained through the weather application.

또한, 예를 들어, 근접 터치된 객체가 특정 주소를 가리키는 텍스트인 경우, 텍스트를 분석하여 위치정보를 획득한다. 또한, 획득한 위치정보를 날씨 어플리케이션으로 전달함으로써, 날씨 어플리케이션을 통해 해당 주소에 대응하는 날씨 정보를 획득할 수도 있다. Also, for example, when the proximity touched object is text indicating a specific address, the text is analyzed to obtain location information. In addition, by passing the acquired location information to the weather application, it is also possible to obtain weather information corresponding to the address through the weather application.

또한, 예를 들어, 근접 터치된 객체가 이미지, 동영상, 전자문서 등의 컨텐츠인 경우, 해당 컨텐츠가 위치하는 웹 페이지를 파싱하여 위치정보를 획득한다. 또한, 획득한 위치정보를 날씨 어플리케이션으로 전달함으로써, 날씨 어플리케이션을 통해 대응하는 날씨 정보를 획득할 수도 있다.For example, when the proximity touched object is content such as an image, a video, or an electronic document, location information is obtained by parsing a web page where the content is located. In addition, by passing the acquired location information to the weather application, corresponding weather information may be obtained through the weather application.

도 22 내지 도 25는 상기 S204 단계에서 선택된 객체와 관련하여 어플리케이션 기능을 실행하는 예들을 도시한 것이다. 도 22 내지 도 24는 선택된 객체와 관련하여 지도 어플리케이션 기능을 실행하는 예들을 도시한 것이고, 도 25는 선택된 객체와 관련하여 날씨 어플리케이션 기능을 실행하는 예를 도시한 것이다. 22 to 25 illustrate examples of executing an application function in relation to the object selected in step S204. 22 to 24 illustrate examples of executing a map application function in relation to a selected object, and FIG. 25 illustrates an example of executing a weather application function in relation to a selected object.

도 22를 참조하면, 제어부(180)는 도 22의 (a)에 도시된 바와 같이 특정 웹 페이지가 링크된 텍스트(22a)가 근접 터치됨에 따라, 근접 터치된 텍스트(22a)에 링크된 웹 페이지를 분석하여 도 22의 (b)에 도시된 바와 같이 위치정보(22b)를 획득한다. 예를 들어, 도 22의 (b)에 도시된 바와 같이, 링크된 웹 페이지로부터 특정 위치를 나타내는 주소 정보를 획득한다. 이후, 제어부(180)는 획득한 위치정보를 실행 중인 지도 어플리케이션으로 전달하고, 지도 어플리케이션으로부터 대응하는 위치가 표시된 지도 이미지를 수신한다. 또한, 수신된 지도 이미지의 프리뷰 이미지(22c)를 터치 스크린(151)에 표시한다. Referring to FIG. 22, as shown in (a) of FIG. 22, the controller 180 performs a proximity touch on the text 22a linked to a specific web page, and thus the web page linked to the proximity touched text 22a. As shown in FIG. 22 (b), position information 22b is obtained. For example, as shown in FIG. 22B, address information indicating a specific location is obtained from a linked web page. Thereafter, the controller 180 transmits the acquired location information to a running map application, and receives a map image displaying a corresponding location from the map application. In addition, the preview image 22c of the received map image is displayed on the touch screen 151.

도 23을 참조하면, 제어부(180)는 도 23의 (a)에 도시된 바와 같이, 웹 페이지에서 특정 위치를 가리키는 주소(23a)가 근접 터치됨에 따라, 터치된 주소 정보를 분석하여 위치정보를 획득한다. 또한, 제어부(180)는 획득한 위치정보를 실행 중인 지도 어플리케이션으로 전달하고, 지도 어플리케이션으로부터 대응하는 위치가 표시된 지도 이미지를 수신한다. 이후, 제어부(180)는 수신된 지도 이미지의 프리뷰 이미지(23b)를 터치 스크린(151)에 표시한다.Referring to FIG. 23, as shown in (a) of FIG. 23, the controller 180 analyzes location information by analyzing the touched address information as the proximity address 23a indicating a specific location is touched on a web page. Acquire. In addition, the controller 180 transmits the acquired location information to a running map application, and receives a map image displaying a corresponding location from the map application. Thereafter, the controller 180 displays the preview image 23b of the received map image on the touch screen 151.

도 24를 참조하면, 제어부(180)는 도 24의 (a)에 도시된 바와 같이, 웹 페이지에 포함된 특정 동영상(24a)이 근접 터치됨에 따라, 웹 페이지를 파싱하여 위치정보를 획득한다. 예를 들어, 웹 페이지를 분석하여 동영상(24a)에 태깅된 위치정보를 획득한다. 또한, 제어부(180)는 획득한 위치정보를 실행 중인 지도 어플리케이션으로 전달하고, 지도 어플리케이션으로부터 대응하는 위치가 표시된 지도 이미지를 수신한다. 이후, 제어부(180)는 수신된 지도 이미지의 프리뷰 이미지(24b)를 터치 스크린(151)에 표시한다.Referring to FIG. 24, as shown in FIG. 24A, as the specific video 24a included in the web page is in close proximity touch, the controller 180 parses the web page to obtain location information. For example, the web page is analyzed to obtain location information tagged in the video 24a. In addition, the controller 180 transmits the acquired location information to a running map application, and receives a map image displaying a corresponding location from the map application. Thereafter, the controller 180 displays the preview image 24b of the received map image on the touch screen 151.

도 25를 참조하면, 제어부(180)는 도 25의 (a)에 도시된 바와 같이, 웹 페이지에서 특정 웹 페이지가 링크된 텍스트(25a)가 근접 터치됨에 따라, 해당 텍스트(5a)에 링크된 웹 페이지를 분석하여 위치정보를 획득한다. 또한, 획득한 위치정보를 실행 중인 날씨 어플리케이션으로 전달하고, 날씨 어플리케이션으로부터 대응하는 지역의 날씨 정보를 수신한다. 이후, 제어부(180)는 수신된 날씨 정보의 프리뷰 이미지(25b)를 터치 스크린(151)에 표시한다. Referring to FIG. 25, as shown in FIG. 25A, the controller 180 is linked to the text 5a as the text 25a to which a specific web page is linked is in close proximity touch on the web page. Analyze web pages to obtain location information. In addition, the acquired location information is transmitted to the running weather application, and the weather information of the corresponding area is received from the weather application. Thereafter, the controller 180 displays the preview image 25b of the received weather information on the touch screen 151.

다시, 도 21을 보면, 상기 S205 단계에서, 제어부(180)는 상기 S204 단계에서의 실행 결과를 프리뷰 이미지로 표시할 수 있다. 예를 들어, 제어부(180)는 지도 어플리케이션을 통해 획득한 지도 이미지를 프리뷰 이미지로 표시할 수 있다. 또한, 예를 들어, 제어부(180)는 날씨 어플리케이션을 통해 획득한 날씨 정보를 프리뷰 이미지로 표시할 수도 있다. Referring back to FIG. 21, in step S205, the controller 180 can display the execution result in step S204 as a preview image. For example, the controller 180 may display the map image acquired through the map application as a preview image. Also, for example, the controller 180 may display weather information acquired through a weather application as a preview image.

상기 S206 단계에서, 프리뷰 이미지의 저장 요청은 다양한 방법으로 입력될 수 있다. In operation S206, the request for storing the preview image may be input in various ways.

프리뷰 이미지의 저장 요청은, 근접 터치에 의한 제스처 입력을 통해 입력될 수 있다. 예를 들어, 근접 터치에 의한 플리킹, 드래그, 프레스 등의 단순 터치 제스처에 의해 프리뷰 이미지의 저장 요청을 수신할 수 있다. 또한, 예를 들어, 'O', 'I' 등 특정 궤적을 따라서 이어지는 근접 터치 제스처에 의해 프리뷰 이미지의 저장 요청을 수신할 수도 있다. 또한, 예를 들어, 터치 스크린(151)에 표시된 폴더 등의 특정 아이콘으로 프리뷰 이미지를 보내기 위한 플리킹, 드래그 등의 근접 터치 제스처에 의해 프리뷰 이미지의 저장 요청을 수신될 수 있다. The request for storing the preview image may be input through a gesture input by a proximity touch. For example, a request for storing the preview image may be received by a simple touch gesture such as flicking, dragging, or pressing by a proximity touch. In addition, for example, a request for storing the preview image may be received by a proximity touch gesture that follows a specific trajectory such as 'O' or 'I'. In addition, for example, a request for storing the preview image may be received by a proximity touch gesture such as flicking or dragging to send the preview image to a specific icon such as a folder displayed on the touch screen 151.

프리뷰 이미지의 저장 요청은, 센싱부(140)를 통해 감지되는 이동 단말기(100)의 움직임에 의해 수신할 수도 있다. 예를 들어, 이동 단말기(100)가 특정 방향으로 회전함에 따라 프리뷰 이미지의 저장 요청을 수신할 수도 있다. 제어부(180)는 이동 단말기(100)의 뷰 모드가 세로 뷰(portrait view) 모드에서 가로 뷰(landscape view) 모드로 또는 가로 뷰 모드에서 세로 뷰 모드로 전환되도록 이동 단말기(100) 바디가 회전함에 따라, 프리뷰 이미지의 저장 요청을 수신할 수 있다. 또한, 예를 들어, 이동 단말기(100) 바디의 특정 영역이 태핑됨에 따라 프리뷰 이미지의 저장 요청을 수신할 수 있다. 또한, 예를 들어, 이동 단말기(100) 바디가 특정 방향으로 틸팅됨에 따라, 프리뷰 이미지의 저장 요청을 수신할 수 있다.
The request for storing the preview image may be received by the movement of the mobile terminal 100 detected through the sensing unit 140. For example, as the mobile terminal 100 rotates in a specific direction, the mobile terminal 100 may receive a request for storing the preview image. The controller 180 rotates the body of the mobile terminal 100 such that the view mode of the mobile terminal 100 is switched from the portrait view mode to the landscape view mode or from the landscape view mode to the portrait view mode. Accordingly, a request for storing the preview image may be received. Also, for example, as a specific region of the body of the mobile terminal 100 is tapped, a request for storing the preview image may be received. Also, for example, as the body of the mobile terminal 100 is tilted in a specific direction, a request for storing the preview image may be received.

이하, 필요한 도면들을 참조하여 본 발명의 제3 실시 예에 따른 이동 단말기의 제어 방법 및 이를 구현하기 위한 이동 단말기의 동작에 대하여 상세하게 설명한다. Hereinafter, a method of controlling a mobile terminal according to a third embodiment of the present invention and an operation of the mobile terminal for implementing the same will be described in detail with reference to the accompanying drawings.

도 26은 본 발명의 제3 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다. 또한, 도 27 내지 도 29는 도 26에 개시된 방법을 설명하기 위한 도면들이다. 26 is a flowchart illustrating a control method of a mobile terminal according to a third embodiment of the present invention. 27 to 29 are diagrams for describing the method disclosed in FIG. 26.

도 26을 참조하면, 제어부(180)는 검색 창에 검색어와 관심정보를 입력함으로써, 검색을 요청한다(S301). 여기서, 검색 창은 웹 브라우저를 통해 제공되는 검색 창뿐만 아니라, 지도 어플리케이션, 주소록 어플리케이션, 메시지 어플리케이션, 날씨 어플리케이션 등 다양한 어플리케이션에서 제공하는 검색 창을 포함할 수 있다. Referring to FIG. 26, the controller 180 requests a search by inputting a search word and interest information in a search window (S301). Here, the search window may include a search window provided by various applications such as a map application, an address book application, a message application, a weather application, as well as a search window provided through a web browser.

제어부(180)는 검색어를 이용하여 검색한 검색 결과들의 리스트를 터치 스크린(151)에 표시한다(S302). 또한, 제어부(180)는 검색 결과들 중 어느 하나의 검색 결과가 근접 터치됨에 따라(S303), 대응하는 웹 페이지로부터 획득한 관심정보의 프리뷰 이미지를 터치 스크린(151)에 표시한다(S304). The controller 180 displays a list of search results searched using the search word on the touch screen 151 (S302). In addition, the controller 180 displays the preview image of the interest information obtained from the corresponding web page on the touch screen 151 as one of the search results is in close proximity touch (S303).

상기 S304 단계에서 표시되는 프리뷰 이미지는 검색 과정에서 각 웹 페이지로부터 획득한 것일 수도 있고, 어느 하나의 검색 결과가 근접 터치됨에 따라, 해당 검색 결과에 링크된 웹 페이지의 파싱을 통해 획득한 것일 수도 있다. The preview image displayed in step S304 may be obtained from each web page in the search process, or may be obtained by parsing a web page linked to the search result as one of the search results is in close proximity. .

이후, 제어부(180)는 근접 터치된 검색 결과에 링크된 웹 페이지의 프리로딩 요청이 수신됨에 따라(S305), 링크된 웹 페이지를 백그라운드(background)에서 프리로딩(pre-loading)한다(S306). Thereafter, the controller 180 pre-loads the linked web page in the background (S306) as a preloading request of the web page linked to the proximity touched search result is received (S305). .

또한, 프리로딩된 웹 페이지의 표시가 요청됨에 따라(S307), 로딩된 웹 페이지를 메모리(160)로부터 읽어와 터치 스크린(151)에 표시한다(S308). In addition, as the display of the preloaded web page is requested (S307), the loaded web page is read from the memory 160 and displayed on the touch screen 151 (S308).

상기 S301 단계에서, 관심정보는 검색어를 이용하여 검색하고자 하는 정보의 카테고리 정보를 나타낸다. 예를 들어, 사용자는 특정 장소의 위치 또는 주소를 검색하고자 하는 경우, 장소 이름에 대응하는 검색어와 함께 '위치', '장소' 등의 카테고리 정보를 입력할 수 있다. 또한, 예를 들어, 특정인의 이미지를 검색하고자 하는 경우, 사용자는 특정인의 이름에 대응하는 검색어와 함께 '이미지'를 관심 정보로 입력할 수 있다. In step S301, the interest information represents category information of information to be searched using a search word. For example, when a user wants to search for a location or address of a specific place, the user may input category information such as 'location' and 'place' together with a search word corresponding to the place name. For example, when a user wants to search for an image of a specific person, the user may input 'image' as interest information together with a search word corresponding to the name of the specific person.

한편, 도 26에서는 검색어와 관심정보를 검색 창에 함께 입력하는 경우를 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 관심정보를 입력하기 위한 창을 검색 창과 별도로 표시하고, 이를 통해 관심정보를 수신할 수도 있다. 또한, 관심정보를 선택하기 위한 버튼 등의 그래픽 사용자 인터페이스(Graphic User Interface, GUI)를 제공하고, 이를 이용하여 선택된 관심정보를 사용할 수도 있다. Meanwhile, in FIG. 26, a case in which a search word and interest information are input together in a search window has been described as an example, but the present invention is not limited thereto. According to the present invention, the window for inputting the interest information may be displayed separately from the search window, thereby receiving the interest information. In addition, a graphic user interface (GUI), such as a button for selecting interest information, may be provided, and the selected interest information may be used using the same.

또한, 본 발명에 따르면, 제어부(180)는 검색어를 분석하여 하나 이상의 관심정보를 자동으로 획득할 수도 있다. 예를 들어, 사용자가 장소 명을 검색어로 입력하는 경우, 제어부(180)는 관심정보를 장소 또는 날씨로 설정할 수 있다. In addition, according to the present invention, the controller 180 may automatically obtain one or more pieces of interest information by analyzing the search word. For example, when a user inputs a place name as a search word, the controller 180 may set interest information as a place or weather.

다시, 도 26을 보면, 상기 S304 단계에서, 제어부(180)는 근접 터치된 검색 결과에 링크된 웹 페이지를 파싱함으로써, 검색어와 관련된 관심정보를 웹 페이지로부터 획득한다. 예를 들어, 사용자가 가게 이름을 검색어로 입력하고, '위치'를 관심 정보로 입력하는 경우, 제어부(180)는 웹 페이지로부터 위치와 관련된 텍스트, 지도 이미지 등을 획득할 수 있다. 또한, 예를 들어, 사용자가 가게 이름을 검색어로 입력하고, '시간'을 관심 정보로 입력하는 경우, 제어부(180)는 웹 페이지로부터 영업 시간 등 시간과 관련된 텍스트 등을 획득할 수도 잇다. 또한, 예를 들어, 사용자가 가게 이름을 검색어로 입력하고, '가격'을 관심 정보로 입력하는 경우, 제어부(180)는 웹 페이지로부터 가격과 관련된 텍스트 등을 획득할 수도 있다. Referring back to FIG. 26, in step S304, the controller 180 parses a web page linked to a proximity touch search result to obtain interest information related to a search word from the web page. For example, when a user inputs a shop name as a search word and inputs a location as interest information, the controller 180 may obtain text, a map image, and the like related to a location from a web page. For example, when a user inputs a store name as a search word and inputs "time" as interest information, the controller 180 may obtain texts related to time such as business hours from a web page. For example, when a user inputs a shop name as a search word and inputs a price as interest information, the controller 180 may obtain a text related to a price from a web page.

도 27은 검색 결과로부터 획득한 관심정보를 프리뷰 이미지로 표시하는 예를 도시한 것이다. FIG. 27 illustrates an example of displaying interest information obtained from a search result as a preview image.

도 27을 참조하면, 제어부(180)는 관심정보로 위치가 선택된 상태에서, 검색어를 이용하여 검색된 결과들 중 어느 하나(27a)가 근접 터치됨에 따라, 대응하는 웹 페이지를 파싱하여 관심 정보로 선택된 위치정보(27b)가 표시된 영역을 획득한다. 또한, 관심 정보인 위치정보가 기록된 영역만을 프리뷰 이미지(27b)로 터치 스크린(151)에 표시한다. Referring to FIG. 27, in a state in which a location is selected as the interest information, the controller 180 parses a corresponding web page and selects the interest information as one of the results searched by using a search term is approached in proximity. An area in which the location information 27b is displayed is obtained. In addition, only the area in which the location information, which is the information of interest, is recorded is displayed on the touch screen 151 as the preview image 27b.

다시, 도 26을 보면, 상기 S302 단계에서, 제어부(180)는 검색 결과와 관심정보를 나타내는 아이콘을 함께 표시할 수도 있다. 이 경우, 상기 S303 단계에서, 제어부(180)는 검색 결과와 함께 표시된 아이콘이 근접 터치되면, 대응하는 웹 페이지로부터 획득한 관심정보를 프리뷰 이미지로 표시하고, 검색 결과가 근접 터치되는 경우에는 링크된 웹 페이지의 프리뷰 이미지를 표시할 수도 있다. Referring back to FIG. 26, in step S302, the controller 180 may display a search result and an icon representing interest information. In this case, in step S303, when the icon displayed together with the search result is in close proximity, the controller 180 displays the interest information obtained from the corresponding web page as a preview image, and when the search result is in proximity, the controller 180 is linked. You can also display a preview image of a web page.

도 28은 관심정보가 대응되어 있는 아이콘을 표시하는 일 예를 도시한 것이다. 28 illustrates an example of displaying an icon to which interest information corresponds.

도 28을 참조하면, 제어부(180)는 각 검색 결과의 타이틀 옆에 관심정보가 대응되어 있는 아이콘(28)을 표시한다. 이후, 제어부(180)는 해당 아이콘(28a)이 근접 터치됨에 따라, 대응하는 웹 페이지에서 관심정보만을 추출하여 프리뷰 이미지로 표시할 수 있다. Referring to FIG. 28, the controller 180 displays an icon 28 corresponding to interest information next to a title of each search result. Subsequently, as the icon 28a is in close proximity, the controller 180 may extract only the interest information from the corresponding web page and display the preview image as a preview image.

다시, 도 26을 보면, 상기 S305 단계에서 근접 터치된 검색 결과에 링크된 웹 페이지의 프리로딩을 요청하는 제어 입력은 다양한 방법에 의해 수신될 수 있다. 링크된 웹 페이지의 프리로딩을 요청하는 제어 입력은 전술한 도 5의 S104 단계에서의 제어 입력 수신 방법과 유사하게 수행되므로, 아래에서는 상세한 설명을 생략한다. Referring back to FIG. 26, a control input for requesting preloading of a web page linked to a search result touched close to step S305 may be received by various methods. Since the control input for requesting preloading of the linked web page is performed similarly to the method for receiving the control input in step S104 of FIG. 5, a detailed description thereof will be omitted below.

상기 S306 단계에서, 프리로딩된 웹 페이지에 상기 S304 단계에서 획득한 관심정보가 별도로 태깅되어 저장될 수도 있다. 예를 들어, 관심정보가 위치인 경우, 제어부(180)는 로딩된 웹 페이지에, 해당 웹 페이지로부터 획득한 위치정보를 태깅하여 저장할 수 있다. In step S306, the interest information obtained in step S304 may be separately tagged and stored on the preloaded web page. For example, when the interest information is a location, the controller 180 may tag and store location information obtained from the web page on the loaded web page.

또한, 상기 S306 단계에서, 관심 정보가 위치인 경우, 제어부(180)는 로딩된 웹 페이지를 해당 웹 페이지로부터 획득한 위치정보에 기반하여, 기 저장된 지도 데이터의 특정 위치에 링크시켜 저장할 수 있다. 또한, 추후 지도 어플리케이션을 통해 웹 페이지가 링크된 위치 검색 시, 링크된 웹 페이지를 검색 결과로 제공하거나, 지도 이미지 상에 링크된 웹 페이지의 썸네일을 표시할 수도 있다. In addition, in step S306, when the interest information is a location, the controller 180 may link and store the loaded web page to a specific location of pre-stored map data based on the location information obtained from the web page. In addition, when searching a location where a web page is linked through a map application, the linked web page may be provided as a search result or a thumbnail of the linked web page may be displayed on a map image.

상기 S307 단계에서, 프리로딩된 웹 페이지의 표시를 요청하는 제어 입력은 다양한 방법에 의해 입력될 수 있다. 프리로딩된 웹 페이지의 표시를 요청하는 제어 입력은 전술한 도 5의 S106 단계에서의 제어 입력 수신 방법과 유사하게 수행되므로, 아래에서는 상세한 설명을 생략한다.In step S307, a control input for requesting the display of the preloaded web page may be input by various methods. Since the control input for requesting the display of the preloaded web page is performed similarly to the method for receiving the control input in step S106 of FIG. 5, the detailed description is omitted below.

전술한 본 발명의 제2 실시 예에 따르면, 사용자는 원하는 정보를 얻기 위해 검색된 웹 페이지를 일일이 열어서 확인할 필요 없이, 프리뷰 이미지로 관심 정보를 획득하는 것이 가능하다. 이에 따라, 사용자가 자신이 원하는 정보를 얻기 위해 검색을 하는 과정에서의 조작 횟수를 최소화하고, 사용자의 관심 정보를 자동으로 획득하여 사용자에게 제공함으로써, 사용자의 편의성을 증대시키는 효과가 있다.
According to the second embodiment of the present invention described above, a user may acquire interest information as a preview image without having to open and check a searched web page in order to obtain desired information. Accordingly, the user minimizes the number of manipulations in the process of searching for information desired by the user, and automatically obtains and provides the user's interest information to the user, thereby increasing convenience of the user.

이하, 필요한 도면들을 참조하여 본 발명의 제4 실시 예에 따른 이동 단말기의 제어 방법 및 이를 구현하기 위한 이동 단말기의 동작에 대하여 상세하게 설명한다. Hereinafter, a method of controlling a mobile terminal and an operation of a mobile terminal for implementing the same according to a fourth embodiment of the present invention will be described in detail with reference to necessary drawings.

도 29는 본 발명의 제4 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다. 또한, 도 30 내지 도31은 도 29에 개시된 방법을 설명하기 위한 도면들이다. 29 is a flowchart illustrating a control method of a mobile terminal according to a fourth embodiment of the present invention. 30 to 31 are diagrams for describing the method disclosed in FIG. 29.

도 29를 참조하면, 제어부(180)는 복수의 컨텐츠로 구성되는 컨텐츠 리스트를 표시한다(S401). Referring to FIG. 29, the controller 180 displays a content list composed of a plurality of contents (S401).

이후, 제어부(180)는 컨텐츠 리스트에 대해 입력되는 근접 터치 입력에 기반하여, 컨텐츠 리스트에 포함된 적어도 하나의 컨텐츠를 선택한다(S402). Thereafter, the controller 180 selects at least one content included in the content list based on the proximity touch input input to the content list (S402).

이후, 제어부(180)는 선택된 적어도 하나의 컨텐츠의 실행이 요청됨에 따라(S403), 선택된 적어도 하나의 컨텐츠를 순차적으로 실행한다(S404). Thereafter, the controller 180 sequentially executes the at least one selected content as requested to execute the at least one selected content (S403).

상기 S401 단계에서, 컨텐츠는 동영상, 이미지, 오디오, 전자 문서, 웹 페이지 등을 포함할 수 있다. In step S401, the content may include a video, an image, audio, an electronic document, a web page, and the like.

상기 S402 단계에서, 적어도 하나의 컨텐츠를 선택하기 위한 근접 터치 입력은 다양한 방법으로 수신될 수 있다. In operation S402, a proximity touch input for selecting at least one content may be received in various ways.

예를 들어, 특정 컨텐츠에 대해 플리킹, 드래그, 프레스 등의 근접 터치 입력이 수신됨에 따라, 해당 컨텐츠를 선택할 수 있다. For example, as a proximity touch input such as flicking, dragging, or pressing is received for a specific content, the corresponding content may be selected.

또한, 예를 들어, 화면에 폴더 등의 특정 아이콘을 표시하고, 근접 터치를 통해 특정 컨텐츠를 아이콘이 표시된 방향으로 플리킹 또는 드래그함으로서, 해당 컨텐츠를 선택할 수도 있다. For example, the corresponding content may be selected by displaying a specific icon such as a folder on the screen and flicking or dragging the specific content in the direction in which the icon is displayed through the proximity touch.

도 30은 컨테츠 리스트에서 적어도 하나의 컨텐츠를 선택하는 일 예를 도시한 것이다. 30 illustrates an example of selecting at least one content from a content list.

도 30을 참조하면, 제어부(180)는 웹 페이지에 표시된 동영상 리스트에서 어느 하나의 동영상(30a)이 근접 터치에 의해 특정 방향으로 플리킹됨에 따라, 해당 동영상을 실행 대상으로 선택한다. Referring to FIG. 30, the controller 180 selects a video as a target of execution as one video 30a is flicked in a specific direction by a proximity touch in a video list displayed on a web page.

한편, 제어부(180)는 실행 대상으로 선택되는 컨텐츠가 도 30에 도시된 바와 같이, 웹 페이지이거나 웹 페이지에 포함된 컨텐츠인 경우, 추후 순차적인 실행을 위해 백그라운드에서 선택된 컨텐츠를 프리로딩하여 메모리(160)에 저장할 수도 있다.Meanwhile, when the content selected as the execution target is a web page or content included in the web page, as shown in FIG. 30, the controller 180 preloads the selected content in the background for sequential execution later, and stores the memory ( 160).

다시, 도 29를 보면, 상기 S403 단계에서, 선택된 적어도 하나의 컨텐츠의 실행을 요청하는 제어 입력은 다양한 방법에 의해 수신될 수 있다. Referring back to FIG. 29, in step S403, a control input for requesting execution of at least one selected content may be received by various methods.

제어부(180)는, 상태 바 등 화면의 일부 영역에 선택된 컨텐츠가 있음을 나타내는 아이콘을 표시하고, 해당 아이콘이 터치됨에 따라 선택된 컨텐츠들을 순차적으로 실행할 수 있다. 이 경우, 제어부(180)는 선택된 컨텐츠의 개수를 아이콘과 결합하여 표시할 수 있다. The controller 180 may display an icon indicating that there is selected content in a portion of the screen such as a status bar, and sequentially execute the selected content as the icon is touched. In this case, the controller 180 can display the number of the selected content in combination with an icon.

또한, 제어부(180)는 센싱부(140)를 통해 감지되는 이동 단말기(100)의 움직임을 토대로 선택된 적어도 하나의 컨텐츠의 실행 요청을 수신할 수도 있다. 예를 들어, 제어부(180)는, 이동 단말기(100)가 세로 뷰 모드로 동작하는 상태에서 컨텐츠 리스트를 표시하고, 컨텐츠 리스트에서 적어도 하나의 컨텐츠가 선택된 상태에서 이동 단말기(100) 바디가 가로 뷰 모드에 대응하는 방향으로 회전함에 따라, 선택된 컨텐츠의 실행 요청을 수신할 수 있다. 또한, 예를 들어, 제어부(180)는 이동 단말기(100) 바디의 특정 영역이 태핑됨에 따라, 선택된 컨텐츠의 실행 요청을 수신할 수도 있다. In addition, the controller 180 may receive a request for executing at least one selected content based on the movement of the mobile terminal 100 detected by the sensing unit 140. For example, the controller 180 displays a content list in a state in which the mobile terminal 100 operates in the portrait view mode, and the body of the mobile terminal 100 in a horizontal view in a state in which at least one content is selected in the content list. As it rotates in a direction corresponding to the mode, a request for executing the selected content may be received. Also, for example, the controller 180 may receive a request for executing the selected content as a specific region of the body of the mobile terminal 100 is tapped.

도 31은 근접 터치에 의해 선택된 적어도 하나의 컨텐츠를 순차적으로 실행하는 일 예를 도시한 것이다. FIG. 31 illustrates an example of sequentially executing at least one content selected by a proximity touch.

도 31을 참조하면, 제어부(180)는 도 31의 (a)에 도시된 바와 같이 터치 스크린(151)이 세로 뷰로 동작하는 상태에서 동영상 리스트를 표시하고, 동영상 리스트에서 적어도 하나의 동영상(31a) 선택된 상태에서 터치 스크린(151)이 가로 뷰 상태로 동작하도록 이동 단말기(100) 바디가 회전함에 따라, 선택된 적어도 하나의 동영상(31a)을 자동으로 재생한다. Referring to FIG. 31, the controller 180 displays a video list in a state in which the touch screen 151 operates in the vertical view as shown in FIG. 31A, and at least one video 31a in the video list. As the body of the mobile terminal 100 rotates so that the touch screen 151 operates in the horizontal view state in the selected state, the at least one selected video 31a is automatically played.

한편, 동영상 리스트에서 복수의 동영상이 선택된 경우, 제어부(180)는 어느 하나의 동영상의 재생이 종료되면, 다시 다른 동영상의 재생을 요청하는 단계 없이 자동으로 다음 동영상을 이어서 재생한다. On the other hand, when a plurality of videos are selected from the video list, the controller 180 automatically plays the next video continuously without requesting to play another video again when the playback of one video is finished.

다시, 도 29를 보면, 상기 S404 단계에서, 제어부(180)는 컨텐츠가 선택된 순서를 토대로, 최근 선택된 컨텐츠부터 순차적으로 실행한다. Referring back to FIG. 29, in step S404, the controller 180 sequentially executes the most recently selected content based on the order in which the contents are selected.

또한, 제어부(180)는 선택된 컨텐츠의 종류에 따라서 선택된 컨텐츠를 순차적으로 재생하거나 표시한다. 예를 들어, 선택된 컨텐츠가 동영상인 경우, 제어부(180)는 선택된 동영상들을 순차적으로 재생할 수 있다. 또한, 예를 들어, 선택된 컨텐츠가 이미지인 경우, 제어부(180)는 선택된 이미지들을 슬라이드 쇼 형태로 순차적으로 터치 스크린(151)에 표시할 수 있다. 또한, 예를 들어, 선택된 컨텐츠가 전자 문서 또는 전자 문서의 특정 페이지들인 경우, 제어부(180)는 선택된 전자 문서 또는 선택된 페이지들을 순차적으로 터치 스크린(151)에 표시할 수 있다. 또한, 예를 들어, 선택된 컨텐츠가 음악 등의 오디오 컨텐츠인 경우, 제어부(180)는 선택된 오디오 컨텐츠를 순차적으로 재생할 수 있다. In addition, the controller 180 sequentially plays or displays the selected content according to the type of the selected content. For example, when the selected content is a video, the controller 180 can sequentially play the selected videos. For example, when the selected content is an image, the controller 180 may sequentially display the selected images on the touch screen 151 in the form of a slide show. Also, for example, when the selected content is an electronic document or specific pages of the electronic document, the controller 180 may sequentially display the selected electronic document or the selected pages on the touch screen 151. For example, when the selected content is audio content such as music, the controller 180 can sequentially play the selected audio content.

한편, 본 발명의 제4 실시 예에 따르면, 제어부(180)는 상기 S102 단계에서 근접 터치되는 컨텐츠에 대해서는 바로 실행하지 않고 선택된 상태를 유지하나, 컨텐츠 리스트에서 어느 하나의 컨텐츠가 접촉 터치되는 경우에는 해당 컨텐츠를 바로 실행함으로써, 사용자가 선택된 컨텐츠들을 한꺼번에 재생하는 것뿐 아니라, 특정 컨텐츠만을 선택하여 재생하는 것 또한 가능하도록 지원한다. Meanwhile, according to the fourth embodiment of the present disclosure, the controller 180 maintains the selected state without immediately executing the content that is in close touch in step S102, but when any content is touched and touched in the content list. By executing the content immediately, the user can not only play the selected contents at once but also select and play only specific contents.

전술한 본 발명의 제4 실시 예에 따르면, 제어부(180)는 여러 개의 컨텐츠를 자동으로 이어서 실행하고자 하는 경우, 근접 터치를 이용하여 손 쉽게 실행 목록을 생성할 수 있다.
According to the fourth embodiment of the present invention described above, the controller 180 can easily generate an execution list using a proximity touch when it is desired to automatically execute a plurality of contents.

이하, 필요한 도면들을 참조하여 본 발명의 제5 실시 예에 따른 이동 단말기의 제어 방법 및 이를 구현하기 위한 이동 단말기의 동작에 대하여 상세하게 설명한다. Hereinafter, a method of controlling a mobile terminal and an operation of a mobile terminal for implementing the same according to a fifth embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 32는 본 발명의 제5 실시 예에 따른 이동 단말기의 제어 방법을 도시한 흐름도이다. 또한, 도 33 내지 도34는 도 32에 개시된 방법을 설명하기 위한 도면들이다. 32 is a flowchart illustrating a control method of a mobile terminal according to a fifth embodiment of the present invention. 33 to 34 are diagrams for describing the method disclosed in FIG. 32.

도 32를 참조하면, 제어부(180)는 특정 어플리케이션의 실행 기능이 대응되어 있는 어플리케이션 아이콘을 터치 스크린(151)에 표시한다(S501). Referring to FIG. 32, the controller 180 displays an application icon corresponding to an execution function of a specific application on the touch screen 151 (S501).

이후, 어플리케이션 아이콘이 근접 터치됨에 따라(S502), 대응하는 어플리케이션과 관련된 적어도 하나의 아이템의 프리뷰 이미지를 표시한다(S503). Thereafter, as the application icon is touched in close proximity (S502), a preview image of at least one item associated with the corresponding application is displayed (S503).

또한, 프리뷰 이미지로 표시 중인 아이템들 중 어느 하나의 아이템이 선택되면(S504), 선택된 아이템을 바로 실행한다(S505). 여기서, 제어부(180)는 접촉 터치 또는 근접 터치 입력에 의해 적어도 하나의 아이템 중 어느 하나를 선택하는 것이 가능하다. In addition, when any one of the items displayed in the preview image is selected (S504), the selected item is immediately executed (S505). Herein, the controller 180 can select any one of at least one item by a touch touch or a proximity touch input.

상기 S503 단계에서, 어플리케이션과 관련된 적어도 하나의 아이템은 해당 어플리케이션의 기능들 중 최근 실행된 기능 순서대로 선택되거나, 자주 실행된 순서대로 선택된 적어도 하나의 기능일 수 있다. 예를 들어, 이메일 관리 어플리케이션의 아이콘이 근접 터치되는 경우, 상기 아이템은, 받은 메일함 열기, 보낸 메일함 열기, 메일 작성 등 메일 관리 어플리케이션에서 제공하는 기능들일 수 있다. 또한, 예를 들어, 상기 S503 단계에서, 음악 재생 어플리케이션의 아이콘이 근접 터치되는 경우, 상기 아이템은 최근 재생된 음악 실행, 많이 재생된 음악 실행, 최근 추가된 음악 실행, 재생 목록 실행 등 음악 재생 어플리케이션에서 제공하는 기능들일 수 있다. In operation S503, at least one item related to an application may be selected in order of recently executed functions from among functions of the corresponding application or at least one function selected in order of frequently executed functions. For example, when the icon of the email management application is in close proximity, the items may be functions provided by the mail management application, such as opening a received mailbox, opening a sent mailbox, and creating a mail. For example, in step S503, when the icon of the music playback application is in close proximity, the item may be a music playback application such as recently played music, heavily played music, recently added music, or playlist. It may be functions provided by.

상기 S503 단계에서, 어플리케이션과 관련된 적어도 하나의 아이템은 해당 어플리케이션에서 제공하는 서비스 중 최근 이용한 순서대로 선택되거나, 자주 이용하는 순서대로 선택된 적어도 하나의 서비스일 수 있다. 예를 들어, 여러 가지 서비스를 제공하는 웹 포털의 웹 브라우저 어플리케이션의 아이콘이 근접 터치되는 경우, 상기 아이템은, 뉴스, 지도, 날씨, 만화, 증권, 카페, 메일 등 대응하는 웹 포털에서 제공하는 웹 서비스일 수 있다. In operation S503, at least one item related to an application may be selected in order of recently used services or at least one service selected in a frequently used order. For example, when an icon of a web browser application of a web portal providing various services is in close proximity, the item is a web provided by a corresponding web portal such as news, maps, weather, cartoons, stocks, cafes, and mail. It may be a service.

상기 S503 단계에서, 어플리케이션과 관련된 적어도 하나의 아이템은 해당 어플리케이션으로 실행 가능한 컨텐츠들 중 최근 이용한 순서대로 선택되거나, 자주 이용하는 순서대로 선택된 적어도 하나의 컨텐츠일 수 있다. 예를 들어, 통화 어플리케이션의 아이콘이 근접 터치되는 경우, 상기 아이템은 최근 통화한 순서대로 선택되거나, 즐겨 찾기로 등록된 적어도 하나의 콘택(contact) 정보일 수 있다. 또한, 예를 들어, 음악 재생 어플리케이션의 아이콘이 근접 터치되는 경우, 상기 아이템은 최근 재생된 순서대로 선택되거나, 자주 재생되는 순서대로 선택된 음악, 재생목록일 수도 있다. 또한, 예를 들어, 동영상 재생 어플리케이션의 아이콘이 근접 터치되는 경우, 상기 아이템은 최근 재생된 순서대로 선택되거나, 많이 재생된 순서대로 선택된 적어도 하나의 동영상일 수 있다. 또한, 연속되는 동영상의 경우 최근 재생된 동영상의 다음 재생 순서에 대응하는 동영상일 수도 있다. In operation S503, the at least one item related to the application may be selected in order of recently used contents among contents executable by the corresponding application or at least one content selected in order of frequent use. For example, when an icon of a call application is in close proximity, the items may be selected in the order of recent call or at least one contact information registered as a favorite. For example, when an icon of a music playing application is in close proximity, the item may be selected in the order of the most recently played, or may be a music or a playlist selected in the order of being frequently played. For example, when the icon of the video playing application is in close proximity, the item may be selected in the order of the most recently played or at least one video selected in the order of the most played. In addition, the continuous video may be a video corresponding to the next playback order of the recently played video.

도 33 및 도 34는 근접 터치에 의해 선택된 아이템들을 실행하는 예들을 도시한 것이다. 33 and 34 illustrate examples of executing items selected by the proximity touch.

도 33을 참조하면, 제어부(180)는 도 33의 (a)에 도시된 바와 같이 통화 어플리케이션의 아이콘(33a)이 근접 터치됨에 따라, 최근 통화한 순서대로 선택된 복수의 콘택 정보들(33b)을 아이콘(33a)에 인접하게 표시한다. Referring to FIG. 33, as the icon 33a of the call application is in close proximity to the touch application as shown in FIG. 33A, the controller 180 may select a plurality of contact information 33b selected in the order of the latest call. Displayed adjacent to the icon 33a.

이후, 제어부(180)는 도 33의 (b)에 도시된 바와 같이, 복수의 콘택 정보들 중 '홍길동'이 선택됨에 따라, 도 33의 (c)에 도시된 바와 같이 '홍길동'과의 통화 연결을 자동으로 시도한다. Subsequently, as shown in (b) of FIG. 33, the controller 180 selects 'hong-gil-dong' from among the plurality of contact information, and thus, calls to 'hong-gil-dong' as shown in (c) of FIG. 33. Attempt to connect automatically.

도 34를 참조하면, 제어부(180)는 도 34의 (a)에 도시된 바와 같이 음악 재생 어플리케이션의 아이콘(34a)이 근접 터치됨에 따라, 음악 재생 어플리케이션의 재생 목록들(34b)을 아이콘(34a)에 인접하게 표시한다. Referring to FIG. 34, as the icon 34a of the music playback application is in close proximity to the touch screen 34a of FIG. 34A, the controller 180 selects the playlists 34b of the music playback application from the icon 34a. Adjacent to).

이후, 제어부(180)는 도 34의 (b)에 도시된 바와 같이 재생목록들 중 '내 재생목록 001'이 선택됨에 따라, 도 34의 (c)에 도시된 바와 같이 선택된 재생 목록에 포함된 음악들의 리스트를 터치 스크린(151)에 표시한다. Thereafter, as shown in (b) of FIG. 34, the controller 180 selects 'my playlist 001' from among the playlists, and thus is included in the selected playlist as shown in (c) of FIG. 34. The list of music is displayed on the touch screen 151.

본 발명의 제5 실시 예에 따르면, 사용자는 원하는 기능을 실행하기 위해 여러 단계의 조작을 수행할 필요 없이, 근접 터치를 이용하여 손 쉽게 원하는 기능을 실행하는 것이 가능하다.
According to the fifth embodiment of the present invention, a user may easily execute a desired function by using a proximity touch without having to perform various steps of operation to execute a desired function.

상기에서 설명한 본 발명에 의한 이동 단말기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다. The above-described method of controlling a mobile terminal according to the present invention can be provided by being recorded in a computer-readable recording medium as a program for execution in a computer.

본 발명에 의한 이동 단말기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 기능 매체에 저장되거나 전송 매체 또는 통신 망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다. The control method of the mobile terminal according to the present invention can be executed through software. When executed in software, the constituent means of the present invention are code segments that perform the necessary tasks. The program or code segments may be stored in a processor readable medium or transmitted by a computer data signal coupled with a carrier in a transmission medium or communication network.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모드 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광 데이터 저장장치 등이 있다. 또한, 컴퓨터로 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
The computer-readable recording medium includes a mode type recording device in which data that can be read by a computer system is stored. Examples of computer-readable recording devices include ROM, RAM, CD-ROM, DVD ± ROM, DVD-RAM, magnetic tape, floppy disks, hard disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer devices so that the computer readable code is stored and executed in a distributed fashion.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수 있다. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings, and all or some of the embodiments may be selectively combined so that various modifications may be made.

Claims (19)

메모리;
웹 페이지를 표시하는 터치 스크린; 및
상기 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라 상기 특정 객체와 관련된 아이템의 프리뷰 이미지를 상기 터치 스크린에 표시하고,
상기 아이템에 대한 프리로딩(pre-loading)을 요청하는 제1 제어 입력이 수신되면, 백그라운드(background)에서 상기 아이템을 로딩하여 상기 메모리에 저장하는 제어부를 포함하는 이동 단말기.
Memory;
A touch screen displaying a web page; And
As a specific object included in the web page is in close proximity touch, a preview image of an item related to the specific object is displayed on the touch screen,
And a controller configured to load the item in a background and store it in the memory when a first control input requesting pre-loading for the item is received.
제1항에 있어서,
상기 제어부는, 프리로딩된 아이템의 표시를 요청하는 제2 제어 입력이 수신되면, 상기 메모리로부터 프리로딩된 적어도 하나의 아이템을 읽어오고, 상기 적어도 하나의 아이템을 상기 터치 스크린에 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The control unit reads at least one preloaded item from the memory and displays the at least one item on the touch screen when a second control input requesting the display of the preloaded item is received. Mobile terminal.
제2항에 있어서,
상기 제1 제어 입력 및 상기 제2 제어 입력은 근접 터치에 의한 터치 입력을 토대로 수신되는 것을 특징으로 하는 이동 단말기.
3. The method of claim 2,
And the first control input and the second control input are received based on a touch input by a proximity touch.
제2항에 있어서,
상기 이동 단말기의 움직임을 감지하는 센싱부를 더 포함하고,
상기 제2 제어 입력은 상기 이동 단말기가 특정 방향으로 회전함에 따라 수신되는 것을 특징으로 하는 이동 단말기.
3. The method of claim 2,
Further comprising a sensing unit for detecting the movement of the mobile terminal,
And the second control input is received as the mobile terminal rotates in a specific direction.
제2항에 있어서,
상기 제어부는 상기 제2 제어 입력을 수신하면, 상기 프리로딩된 적어도 하나의 아이템을 표시하는 영역을 상기 터치 스크린의 일부 영역에 표시하고, 상기 적어도 하나의 아이템 중 어느 하나의 아이템이 선택되면, 상기 선택된 아이템을 상기 터치 스크린에 표시하는 것을 특징으로 하는 이동 단말기.
3. The method of claim 2,
When the control unit receives the second control input, the control unit displays an area displaying the preloaded at least one item on a partial area of the touch screen, and when any one item of the at least one item is selected, And displaying the selected item on the touch screen.
제2항에 있어서,
상기 제어부는 상기 제2 제어 입력을 수신하면, 상기 프리로딩된 적어도 하나의 아이템 중 제1 아이템을 상기 터치 스크린에 표시하고, 상기 제1 아이템에 대해 터치 입력이 수신됨에 따라, 상기 프리로딩된 적어도 하나의 아이템 중 제2 아이템을 상기 터치 스크린에 표시하는 것을 특징으로 하는 이동 단말기.
3. The method of claim 2,
When the control unit receives the second control input, the controller displays a first item of the at least one preloaded item on the touch screen, and as the touch input is received for the first item, the preloaded at least And displaying a second item of one item on the touch screen.
제1항에 있어서,
상기 아이템은 상기 특정 객체에 링크된 웹 페이지 또는 컨텐츠를 포함하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
And the item includes a web page or content linked to the specific object.
제1항에 있어서,
상기 아이템은 상기 특정 객체와 관련된 위치정보를 포함하고,
상기 프리뷰 이미지는 상기 위치정보가 표시된 지도 이미지인 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The item includes location information associated with the specific object,
The preview image is a mobile terminal, characterized in that the map image on which the location information is displayed.
제1항에 있어서,
상기 아이템은 상기 특정 객체와 관련된 뉴스 또는 검색 결과를 포함하고,
상기 프리뷰 이미지는 상기 특정 객체와 관련된 뉴스 리스트 또는 검색 결과 리스트를 포함하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The item includes news or search results related to the particular object,
And the preview image includes a news list or a search result list related to the specific object.
제1항에 있어서,
상기 제어부는 상기 특정 객체가 근접 터치되는 깊이에 따라서 상기 프리뷰 이미지의 표시 크기를 제어하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The controller controls a display size of the preview image according to a depth of the proximity of the specific object.
제1항에 있어서,
상기 제어부는 상기 특정 객체가 근접 터치되는 깊이에 따라서 상기 프리뷰 이미지에 포함되는 정보를 제어하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The controller controls information included in the preview image according to a depth of the proximity of the specific object.
제11항에 있어서,
상기 제어부는 상기 근접 터치되는 위치가 디스플레이 면으로부터 가까울수록 상기 프리뷰 이미지에 상세 정보를 포함시키는 것을 특징으로 하는 이동 단말기.
12. The method of claim 11,
The control unit may include detailed information in the preview image as the proximity touched position is closer to the display surface.
웹 페이지를 표시하는 터치 스크린; 및
상기 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라, 상기 웹 페이지를 표시하기 이전에 실행 중이던 특정 어플리케이션의 기능을 상기 특정 객체와 관련하여 실행하며, 상기 특정 객체와 관련하여 실행된 상기 특정 어플리케이션의 실행 화면을 프리뷰 이미지로 상기 터치 스크린에 표시하는 제어부를 포함하는 이동 단말기.
A touch screen displaying a web page; And
As a specific object included in the web page is in close proximity, a function of a specific application that was executed before displaying the web page is executed with respect to the specific object, and the specific application executed with respect to the specific object is executed. And a controller configured to display an execution screen on the touch screen as a preview image.
제13항에 있어서,
상기 제어부는 상기 특정 어플리케이션이 지도 어플리케이션인 경우, 상기 웹 페이지를 파싱(parsing)하여 상기 특정 객체와 관련된 위치정보를 획득하고, 상기 지도 어플리케이션을 통해 상기 위치정보가 표시된 지도 이미지를 획득하며, 상기 지도 이미지를 상기 프리뷰 이미지로 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 13,
When the specific application is a map application, the controller parses the web page to obtain location information related to the specific object, obtains a map image on which the location information is displayed through the map application, and the map. And displaying an image as the preview image.
제13항에 있어서,
상기 제어부는 상기 특정 어플리케이션이 날씨 어플리케이션인 경우, 상기 웹 페이지를 파싱(parsing)하여 상기 특정 객체와 관련된 위치정보를 획득하고, 상기 날씨 어플리케이션을 통해 상기 위치정보에 대응하는 날씨 정보를 획득하며, 상기 날씨 정보를 상기 프리뷰 이미지로 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 13,
If the specific application is a weather application, the controller parses the web page to obtain location information associated with the specific object, obtains weather information corresponding to the location information through the weather application, and And displaying weather information as the preview image.
터치 스크린; 및
검색 창을 통해 검색어 및 관심 정보가 입력되면, 상기 검색어를 이용하여 검색한 적어도 하나의 검색 결과를 상기 터치 스크린에 표시하고, 상기 적어도 하나의 검색 결과 중 어느 하나의 검색 결과가 근접 터치되면, 상기 근접 터치된 검색 결과에 링크된 웹 페이지에서 상기 관심 정보에 대응하는 영역을 프리뷰 이미지로 표시하는 제어부를 포함하는 이동 단말기.
touch screen; And
When a search term and interest information are input through a search window, at least one search result searched using the search term is displayed on the touch screen, and when one of the at least one search result is in close proximity, the search result is displayed. And a controller configured to display, as a preview image, an area corresponding to the interest information in a web page linked to a proximity touch search result.
이동 단말기의 움직임을 감지하는 센싱부;
터치 스크린; 및
동영상 리스트를 상기 터치 스크린에 표시하며, 근접 터치 입력에 기반하여 상기 리스트에 포함된 복수의 동영상을 선택하고, 상기 이동 단말기가 가로 부(landscape view) 모드로 동작하기 위해 특정 방향으로 회전함에 따라, 상기 선택된 복수의 동영상을 순차적으로 이어서 재생하는 제어부
를 포함하는 이동 단말기.
Sensing unit for detecting the movement of the mobile terminal;
touch screen; And
As the video list is displayed on the touch screen, a plurality of videos included in the list is selected based on a proximity touch input, and the mobile terminal rotates in a specific direction to operate in a landscape view mode. A controller for sequentially playing the selected plurality of videos
.
제17항에 있어서,
메모리를 더 포함하고,
상기 제어부는 상기 복수의 동영상이 웹 페이지에 위치하는 동영상인 경우, 상기 복수의 동영상을 프리로딩하여 상기 메모리에 저장하며, 상기 이동 단말기가 상기 특정 방향으로 회전함에 따라, 프리로딩된 상기 복수의 동영상을 상기 메모리로부터 읽어와 재생하는 것을 특징으로 하는 이동 단말기.
18. The method of claim 17,
Further comprising a memory,
When the plurality of videos is a video located on a web page, the controller preloads the plurality of videos and stores the plurality of videos in the memory, and as the mobile terminal rotates in the specific direction, the plurality of preloaded videos And read from the memory and play.
웹 페이지를 표시하는 단계;
상기 웹 페이지에 포함된 특정 객체가 근접 터치됨에 따라, 상기 특정 객체와 관련된 아이템의 프리뷰 이미지를 표시하는 단계;
근접 터치 입력을 토대로 상기 아이템을 백그라운드에서 프리로딩하는 단계; 및
프리로딩된 아이템의 표시가 요청되면, 프리로딩된 적어도 하나의 아이템을 표시하는 단계
를 포함하는 이동 단말기의 제어 방법.
Displaying a web page;
Displaying a preview image of an item related to the specific object as the specific object included in the web page is in close proximity touch;
Preloading the item in the background based on a proximity touch input; And
If the display of the preloaded item is requested, displaying at least one preloaded item.
And transmitting the control information to the mobile terminal.
KR1020120071317A 2012-06-29 2012-06-29 Mobile terminal and control method for mobile terminal KR20140003245A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120071317A KR20140003245A (en) 2012-06-29 2012-06-29 Mobile terminal and control method for mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120071317A KR20140003245A (en) 2012-06-29 2012-06-29 Mobile terminal and control method for mobile terminal

Publications (1)

Publication Number Publication Date
KR20140003245A true KR20140003245A (en) 2014-01-09

Family

ID=50139895

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120071317A KR20140003245A (en) 2012-06-29 2012-06-29 Mobile terminal and control method for mobile terminal

Country Status (1)

Country Link
KR (1) KR20140003245A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150097172A (en) * 2014-02-18 2015-08-26 삼성전자주식회사 Electronic apparatus and method for displaying electronic documents interlinks with a link object
KR20150098424A (en) * 2014-02-20 2015-08-28 삼성전자주식회사 Method and apparatus for processing input of electronic device
CN110868624A (en) * 2019-11-08 2020-03-06 青岛海信传媒网络技术有限公司 Picture loading method and smart television
WO2021060836A1 (en) * 2019-09-27 2021-04-01 삼성전자 주식회사 Method and apparatus for executing application

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150097172A (en) * 2014-02-18 2015-08-26 삼성전자주식회사 Electronic apparatus and method for displaying electronic documents interlinks with a link object
KR20150098424A (en) * 2014-02-20 2015-08-28 삼성전자주식회사 Method and apparatus for processing input of electronic device
WO2021060836A1 (en) * 2019-09-27 2021-04-01 삼성전자 주식회사 Method and apparatus for executing application
CN110868624A (en) * 2019-11-08 2020-03-06 青岛海信传媒网络技术有限公司 Picture loading method and smart television
CN110868624B (en) * 2019-11-08 2023-08-22 Vidaa(荷兰)国际控股有限公司 Picture loading method and intelligent television

Similar Documents

Publication Publication Date Title
CN103995657B (en) Mobile terminal and its control method
KR101685145B1 (en) Mobile terminal and control method thereof
KR101864618B1 (en) Mobile terminal and method for providing user interface thereof
US8774869B2 (en) Mobile terminal and control method thereof
US9817798B2 (en) Method for displaying internet page and mobile terminal using the same
US9594476B2 (en) Electronic device comprising a touch-screen display and a rear input unit, and method of controlling the same
KR101726790B1 (en) Mobile terminal and control method for mobile terminal
KR101853057B1 (en) Mobile Terminal And Method Of Controlling The Same
US9239625B2 (en) Mobile terminal and control method thereof
US20120038668A1 (en) Method for display information and mobile terminal using the same
KR20140045060A (en) Mobile terminal and method for controlling thereof
KR20150060392A (en) Mobile terminal and method for controlling of the same
KR20140031679A (en) Mobile terminal and control method for mobile terminal
KR20140018661A (en) Mobile terminal and method for controlling thereof
KR101698096B1 (en) Method for searching information by using drawing and terminal thereof
US20130169556A1 (en) Mobile terminal and control method thereof
KR20140003245A (en) Mobile terminal and control method for mobile terminal
KR101648509B1 (en) Mobile terminal and control method thereof
KR101987461B1 (en) Mobile terminal and method for controlling of the same
KR20150083743A (en) Electronic device and control method thereof
KR20150064535A (en) Electronic device and control method thereof
KR20150051655A (en) Electronic device and control method thereof
KR101721874B1 (en) Mobile terminal and image display method thereof
KR20120000175A (en) Mobile terminal and object information display method thereof
KR101604357B1 (en) Mobile terminal, and menu displaying method using the mobile terminal

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination