KR101578008B1 - Mobile terminal and method for controlling display thereof - Google Patents

Mobile terminal and method for controlling display thereof Download PDF

Info

Publication number
KR101578008B1
KR101578008B1 KR1020090111408A KR20090111408A KR101578008B1 KR 101578008 B1 KR101578008 B1 KR 101578008B1 KR 1020090111408 A KR1020090111408 A KR 1020090111408A KR 20090111408 A KR20090111408 A KR 20090111408A KR 101578008 B1 KR101578008 B1 KR 101578008B1
Authority
KR
South Korea
Prior art keywords
image
touch
images
activated
mobile terminal
Prior art date
Application number
KR1020090111408A
Other languages
Korean (ko)
Other versions
KR20110054665A (en
Inventor
백송이
정은수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090111408A priority Critical patent/KR101578008B1/en
Publication of KR20110054665A publication Critical patent/KR20110054665A/en
Application granted granted Critical
Publication of KR101578008B1 publication Critical patent/KR101578008B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은, 지도 이미지에 포함된 복수의 오브젝트 중 제 1 및 제 2 오브젝트에 해당하는 제 1 및 제 2 이미지가 활성화된 상태에서 터치 스크린을 통하여 상기 활성화된 제 1 및 제 2 이미지의 송신 명령 신호를 입력받는 경우, 상기 활성화된 제 1 및 제 2 이미지를 특정 웹 사이트로 송신하는 이동 단말기 및 이것의 디스플레이 제어 방법에 관한 것이다.The first and second images corresponding to the first and second objects among the plurality of objects included in the map image are activated, and the transmission command signal of the activated first and second images And transmits the activated first and second images to a specific web site, and a display control method of the mobile terminal.

Description

이동 단말기 및 이것의 디스플레이 제어 방법{MOBILE TERMINAL AND METHOD FOR CONTROLLING DISPLAY THEREOF}[0001] MOBILE TERMINAL AND METHOD FOR CONTROLLING DISPLAY THEREOF [0002]

본 발명은 복수의 오브젝트를 포함하는 지도 이미지를 디스플레이한 상태에서 오브젝트별 해당 이미지의 디스플레이를 제어할 수 있는 이동 단말기 및 이것의 디스플레이 제어 방법에 관한 것이다. The present invention relates to a mobile terminal capable of controlling display of a corresponding image for each object while displaying a map image including a plurality of objects, and a display control method thereof.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. The terminal can move And can be divided into a mobile / portable terminal and a stationary terminal depending on whether the mobile terminal is a mobile terminal or a mobile terminal. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and enhance the functionality of such terminals, it may be considered to improve the structural and / or software parts of the terminal.

일반적인 이동 단말기에서는, 지도 이미지상에 포함된 오브젝트 또는 그에 해당하는 이미지를 터치 동작 또는 터치 드래그 동작만으로 선택할 수 있는 방법을 제공하지 않는다.A general mobile terminal does not provide a method by which an object included in a map image or an image corresponding thereto can be selected by only a touch operation or a touch drag operation.

또한, 메뉴 검색을 통하지 않고 지도 이미지를 그대로 디스플레이한 상태에서 상기 선택된 이미지를 곧바로 특정 웹 사이트로 송신할 수 있는 사용자 인터페이스를 제공하지 않는다.Also, the user interface does not provide a user interface that allows the selected image to be directly transmitted to a specific web site while displaying the map image as it is without going through a menu search.

본 발명은 지도 이미지상에 포함된 복수의 오브젝트 각각에 해당하는 이미지들 중 특정 이미지를 터치 동작 또는 터치 드래그 동작만으로 간편하게 선택할 수 있는 이동 단말기 및 이것의 디스플레이 제어 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a mobile terminal capable of easily selecting a specific image among images corresponding to a plurality of objects included in a map image by only a touch operation or a touch drag operation, and a display control method thereof.

또한, 본 발명은 메뉴 검색을 통하지 않고 지도 이미지상에서 선택된 특정 이미지를 곧바로 특정 웹 사이트로 송신할 수 있는 이동 단말기 및 이것의 디스플레이 제어 방법을 제공하는데 다른 목적이 있다.It is another object of the present invention to provide a mobile terminal capable of directly transmitting a specific image selected on a map image to a specific web site without going through a menu search, and a display control method thereof.

상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 이동 단말기는, 지도 이미지에 포함된 복수의 오브젝트 중 제 1 오브젝트에 대한 터치 동작 및 상기 제 1 오브젝트에서 제 2 오브젝트로의 터치 드래그 동작을 입력받는 터치 스크린; 및 상기 터치 동작의 입력 지점을 기준으로 상기 제 1 오브젝트에 해당하는 제 1 이미지를 활성화하여 디스플레이하고, 상기 제 1 이미지가 활성화된 상태에서 상기 터치 드래그 동작을 입력받는 경우 상기 터치 드래그 동작의 종료 지점을 기준으로 상기 제 1 이미지 및 상기 제 2 오브젝트에 해당하는 제 2 이미지를 활성화하여 디스플레이하도록 상기 터치 스크린을 제어하는 제어부; 및 상기 터치 스크린을 통하여 상기 활성화된 제 1 및 제 2 이미지의 송신 명령 신호를 입력받는 경우, 상기 제어부의 제어에 따라, 상기 활성화된 제 1 및 제 2 이미지를 특정 웹 사이트로 송신하는 무선 통신부를 포함한다.A mobile terminal according to an embodiment of the present invention for realizing the above-mentioned object receives a touch operation for a first object and a touch drag operation from a first object to a second object among a plurality of objects included in a map image touch screen; And a control unit for activating and displaying a first image corresponding to the first object on the basis of an input point of the touch operation and, when receiving the touch drag operation in a state in which the first image is activated, A control unit for controlling the touch screen to activate and display a second image corresponding to the first image and the second object on the basis of the first image and the second image; And a wireless communication unit for transmitting the activated first and second images to a specific web site under the control of the controller when receiving the transmission command signals of the activated first and second images through the touch screen, .

또한, 상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 이동 단말기의 디스플레이 제어 방법은, 복수의 오브젝트를 포함하는 지도 이미지를 디스플레이하는 제 1 디스플레이 단계; 상기 복수의 오브젝트 중 제 1 오브젝트에 대한 터치 동작을 입력받음에 따라, 상기 제 1 오브젝트에 해당하는 제 1 이미지를 활성화하는 제 1 활성화 단계; 상기 터치 동작의 입력 지점을 기준으로 상기 활성화된 제 1 이미지를 디스플레이하는 제 2 디스플레이 단계; 상기 제 1 이미지가 활성화된 상태에서 상기 제 1 오브젝트에서 상기 복수의 오브젝트 중 제 2 오브젝트로의 터치 드래그 동작을 입력받음에 따라, 상기 제 2 오브젝트에 해당하는 제 2 이미지를 활성화하는 제 2 활성화 단계; 상기 터치 드래그 동작의 종료 지점을 기준으로 상기 활성화된 제 1 및 제 2 이미지를 디스플레이하는 제 3 디스플레이 단계; 상기 활성화된 제 1 및 제 2 이미지의 송신 명령 신호를 입력받는 단계; 및 상기 송신 명령 신호를 입력받음에 따라, 상기 활성화된 제 1 및 제 2 이미지를 특정 웹 사이트로 송신하는 송신 단계를 포함한다.According to another aspect of the present invention, there is provided a display control method for a mobile terminal, including: a first display step of displaying a map image including a plurality of objects; A first activation step of activating a first image corresponding to the first object upon receiving a touch operation for a first object among the plurality of objects; A second display step of displaying the activated first image based on an input point of the touch operation; A second activation step of activating a second image corresponding to the second object upon receiving a touch drag operation from the first object to the second object in a state in which the first image is activated, ; A third display step of displaying the activated first and second images based on an end point of the touch drag operation; Receiving a transmission command signal of the activated first and second images; And a transmission step of transmitting the activated first and second images to a specific web site upon receiving the transmission command signal.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 이동 단말 기 및 이것의 디스플레이 제어 방법에 의한 효과는 다음과 같다.The effects of the mobile terminal and at least one display control method according to at least one embodiment of the present invention configured as described above are as follows.

첫째, 지도 이미지상에 포함된 특정 오브젝트에 해당하는 이미지를 간단한 터치 동작 또는 터치 드래그 동작을 이용하여 신속하게 선택할 수 있다.First, an image corresponding to a specific object included in the map image can be quickly selected using a simple touch operation or a touch drag operation.

둘째, 지도 이미지로부터 선택된 특정 이미지를 이용한 폴더 생성 과정을 메뉴 검색 과정 없이 곧바로 진입할 수 있다.Second, a folder creation process using a specific image selected from a map image can be directly entered without a menu search process.

셋째, 지도 이미지로부터 선택된 특정 이미지의 특정 웹 사이트로의 송신 동작을 메뉴 검색 과정 없이 간편하고 신속하게 수행할 수 있다.Third, transmission operation of a specific image selected from a map image to a specific website can be performed easily and quickly without a menu search process.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 더욱 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal according to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), navigation and the like.

그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자 에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (DVF-H) And a Digital Broadcasting System (ISDB-T) (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for obtaining the position of the mobile terminal, and a representative example thereof is a Global Position System (GPS) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로 폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. It is also possible to sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating an output relating to visual, auditory or tactile sense and includes a display unit 151, an acoustic output module 152, an alarm unit 153, a haptic module 154, 155, and the like.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들 어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may take the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모 듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal can also be output through the display unit 151 or the audio output module 152 so that they can be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the portable terminal 100.

프로젝터 모듈(155)은, 이동 단말기(100)를 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using the mobile terminal 100 and is similar to the image displayed on the display unit 151 in accordance with a control signal of the controller 180 Or at least partly display another image on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 includes a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, a light source And a lens (not shown) for enlarging and outputting the image at a predetermined focal distance to the outside. Further, the projector module 155 may include a device (not shown) capable of mechanically moving the lens or the entire module to adjust the image projection direction.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module and a DLP (Digital Light Processing) module according to the type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 이동 단말기(100)의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 이동 단말기(100)의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided longitudinally on the side, front or back side of the mobile terminal 100. It goes without saying that the projector module 155 may be provided at any position of the mobile terminal 100 as occasion demands.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store the input / output data (e.g., telephone directory, message, audio, For example. The memory unit 160 may also store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia). In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타 입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM) A magnetic disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라 서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The control unit 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

이하, 도 2a 및 2b를 참조하여 디스플레이부(151)와 터치 패드(미도시)의 서로 연관된 작동 방식에 대하여 살펴본다.Hereinafter, operation modes of the display unit 151 and the touch pad (not shown) that are related to each other will be described with reference to FIGS. 2A and 2B.

도 2a 및 2b는 본 발명과 관련된 휴대 단말기의 일 작동 상태를 설명하기 위한 휴대 단말기의 정면도들이다.2A and 2B are front views of a portable terminal for explaining an operation state of the portable terminal according to the present invention.

디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다.Various types of time information can be displayed on the display unit 151. [ These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '가상 키패드'(virtual keypad)라 불릴 수 있다. At least one of the letters, numbers, symbols, graphics, or icons may be displayed in a predetermined arrangement for inputting such information, thereby being implemented as a keypad. Such a keypad may be referred to as a so-called " virtual keypad ".

도 2a는 단말기 바디의 전면을 통해 가상 키패드에 가해진 터치를 입력받는 것을 나타내고 있다. 2A illustrates inputting of a touch applied to a virtual keypad through a front surface of a terminal body.

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다.The display unit 151 may operate as an entire area or may be divided into a plurality of areas and operated. In the latter case, the plurality of areas can be configured to operate in association with each other.

예를 들어, 디스플레이부(151)의 상부와 하부에는 출력창(151a)과 입력창(151b)이 각각 표시된다. 출력창(151a)과 입력창(151b)은 각각 정보의 출력 또는 입력을 위해 할당되는 영역이다. 입력창(151b)에는 전화 번호 등의 입력을 위한 숫자가 표시된 가상 키패드(151c)가 출력된다. 가상 키패드(151c)가 터치되면, 터치된 가상 키패드에 대응되는 숫자 등이 출력창(151a)에 표시된다. 제1조작 유닛(131)이 조작되면 출력창(151a)에 표시된 전화번호에 대한 호 연결이 시도된다.For example, an output window 151a and an input window 151b are displayed on the upper and lower portions of the display unit 151, respectively. The output window 151a and the input window 151b are areas allocated for outputting or inputting information, respectively. In the input window 151b, a virtual keypad 151c is displayed in which a number for inputting a telephone number or the like is displayed. When the virtual keypad 151c is touched, numbers and the like corresponding to the touched virtual keypad are displayed on the output window 151a. When the first operation unit 131 is operated, call connection to the telephone number displayed on the output window 151a is attempted.

도 2b는 단말기 바디의 후면을 통하여 가상 키패드에 가해진 터치를 입력받는 것을 나타낸다. 도 2a가 단말기 바디를 세로로 배치시킨 경우(portrait)라면, 도 2b는 단말기 바디를 가로로 배치시킨 경우(landscape)를 나타낸다. 디스플레이부(151)는 단말기 바디의 배치 방향에 따라 출력 화면이 변환되도록 구성될 수 있다.2B shows a touch input to the virtual keypad through the rear surface of the terminal body. 2A illustrates a case where a terminal body is vertically disposed, and FIG. 2B illustrates a case where a terminal body is disposed horizontally. The display unit 151 may be configured to convert an output screen according to a placement direction of the terminal body.

도 2b는 휴대 단말기에서 텍스트 입력 모드가 작동되는 것을 나타낸다. 디스 플레이부(151)에는 출력창(151a')과 입력창(151b')이 표시된다. 입력창(151b')에는 문자, 기호, 숫자들 중 적어도 하나가 표시된 가상 키패드(151c')들이 복수로 배열될 수 있다. 가상 키패드(151c')들은 쿼티(QWERTY)키의 형태로 배열될 수 있다.2B shows that the text input mode is activated in the portable terminal. The display unit 151 displays an output window 151a 'and an input window 151b'. The input window 151b 'may have a plurality of virtual keypads 151c' displayed with at least one of characters, symbols, and numbers. The virtual keypads 151c 'may be arranged in the form of a QWERTY key.

터치 패드를 통하여 가상 키패드(151c')들이 터치 되면, 터치된 가상 키패드에 대응되는 문자, 숫자, 기호 등이 출력창(151a')에 표시되게 된다. 이와 같이, 터치 패드(미도시)를 통한 터치 입력은 디스플레이부(151)을 통한 터치 입력에 비하여 터치시 가상 키패드(151c')가 손가락에 의해 가려지는 것을 방지할 수 있는 이점이 있다. 디스플레이부(151)와 터치 패드가 투명하게 형성되는 경우에는, 단말기 바디의 후면에 위치한 손가락들을 육안으로 확인할 수 있으므로, 더욱 정확한 터치 입력이 가능하다.When the virtual keypads 151c 'are touched through the touchpad, characters, numbers, symbols corresponding to the touched virtual keypad are displayed on the output window 151a'. As described above, the touch input through the touch pad (not shown) is advantageous in that the virtual keypad 151c 'can be prevented from being cloaked by the finger when the user touches the touch input through the display unit 151. [ In the case where the display unit 151 and the touch pad are formed transparently, the fingers located on the rear side of the terminal body can be visually confirmed, thereby enabling a more accurate touch input.

도 1을 참조하여 설명한 근접 센서(141)에 대하여, 도 3을 참조하면서 보다 구체적으로 살펴본다.The proximity sensor 141 described with reference to Fig. 1 will be described in more detail with reference to Fig.

도 3은 근접 센서의 근접 깊이를 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining the proximity depth of the proximity sensor.

도 3에 도시한 바와 같이 사용자의 손가락, 펜 등과 같은 포인터가 상기 터치스크린에 근접하는 경우, 상기 터치스크린 내부 또는 근방에 배치된 상기 근접센서(141)가 이를 감지하여 근접신호를 출력한다. As shown in FIG. 3, when a pointer such as a user's finger, a pen, or the like approaches the touch screen, the proximity sensor 141 disposed in or near the touch screen senses the proximity sensor and outputs a proximity signal.

상기 근접 센서(141)는 상기 근접 터치되는 포인터와 상기 터치스크린 간의 거리(이하 "근접 깊이"라고 함)에 따라 서로 다른 근접 신호를 출력하도록 구성될 수 있다. The proximity sensor 141 may be configured to output different proximity signals according to the distance between the proximity-touched pointer and the touch screen (hereinafter referred to as "proximity depth").

도 3에서는 예컨대 3개의 근접 깊이를 감지할 수 있는 근접 센서가 배치된 터치스크린의 단면이 예시되고 있다. 3개 미만 또는 4개 이상의 근접 깊이를 감지하는 근접 센서도 가능함은 물론이다.In FIG. 3, for example, a cross-section of a touch screen having proximity sensors capable of sensing three proximity depths is illustrated. Of course, proximity sensors that detect less than three or more than four proximity depths are also possible.

구체적으로 살펴보면, 상기 포인터가 상기 터치스크린 상에 완전히 접촉되는 경우(d0)에는 접촉 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d1 거리 미만으로 이격되어 위치하는 경우에는 제 1 근접 깊이의 근접 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d1 거리 이상 d2 거리 미만으로 이격되어 위치하는 경우에는 제 2 근접 깊이의 근접 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d2 거리 이상 d3 거리 미만으로 이격되어 위치하는 경우에는 제 3 근접 깊이의 근접 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d3 거리 이상으로 이격되어 위치하는 경우에는 근접 터치가 해제된 것으로 인식된다.Specifically, when the pointer is completely in contact with the touch screen (d 0 ), it is recognized as a contact touch. If the pointer is located on the touch screen at a distance less than the distance d 1 , it is recognized as a proximity touch of the first proximity depth. If the pointer is located on the touch screen at a distance of d 1 or more and less than distance d 2 , it is recognized as a proximity touch of the second proximity depth. If the pointer is located on the touch screen at a distance of d 2 or more and less than d 3 distance, it is recognized as a proximity touch of the third proximity depth. If the pointer is positioned apart from the touch screen by a distance d 3 or more, it is recognized that the proximity touch is released.

따라서, 상기 제어부(180)는 상기 포인터의 근접 깊이 및 근접 위치 등에 따라 상기 근접 터치를 다양한 입력 신호로 인식할 수 있고, 상기 다양한 입력 신호에 따른 다양한 동작 제어를 수행할 수 있다.Accordingly, the controller 180 can recognize the proximity touch as various input signals according to the proximity depth and proximity position of the pointer, and perform various operation control according to the various input signals.

도 4a 및 도 4b는 근접 신호가 검출되는 근접 터치 인식 영역과 촉각 효과가 발생하는 햅틱 영역에 대한 설명에 참조 되는 도면이다. 4A and 4B are views referred to the description of a proximity touch recognition area where a proximity signal is detected and a haptic area where a tactile effect occurs.

도 4a는 아이콘이나 메뉴 항목 등과 같은 오브젝트를 설명의 편의상 원형으로 나타낸 것이다. 오브젝트가 디스플레이부(151)에 표시된 영역은, 도 4a(a)에 도시한 바와 같이, 중앙의 제1 영역(A)과 그를 감싸는 제2 영역(B)으로 구분될 수 있다. 제1 영역(A)과 제2 영역(B)은 서로 다른 세기나 패턴을 갖는 촉각 효과가 발생 하도록 구성될 수 있다. 예컨대, 제2 영역(B)을 터치한 경우 제1 진동을 출력하고, 제1 영역(A)을 터치한 경우 제1 진동보다 큰 제2 진동을 출력하도록 2단계로 구성할 수 있다.4A shows objects such as icons and menu items in a circular form for convenience of explanation. The area displayed on the display unit 151 by the object may be divided into a first area A in the center and a second area B surrounding the first area A as shown in FIG. The first region A and the second region B can be configured to generate tactile effects having different intensities or patterns. For example, when the second region B is touched, a first vibration is output, and when the first region A is touched, a second vibration larger than the first vibration is output.

오브젝트가 표시된 영역에 근접 터치 인식 영역과 햅틱 영역을 동시에 설정해야 하는 경우라면, 촉각 효과가 발생하는 햅틱 영역과 근접신호가 검출되는 근접 터치 인식 영역이 서로 다르게 설정할 수 있다. 즉, 햅틱 영역을 근접 터치 인식 영역보다 좁게 설정하거나 혹은 햅틱 영역을 근접 터치 인식 영역보다 넓게 설정할 수 있다. 예컨대, 도 4a(a)에서, 제1 영역(A)과 제2 영역(B)을 포함하는 영역을 근접 터치 인식 영역으로 하고, 제1 영역(A)을 햅틱 영역으로 설정할 수 있다.In the case where the proximity touch recognition area and the haptic area are simultaneously set in the area where the object is displayed, the haptic area where the tactile effect is generated and the proximity touch area where the proximity signal is detected They can be set differently. That is, the haptic area may be set narrower than the proximity touch recognition area, or the haptic area may be set wider than the proximity touch recognition area. For example, in FIG. 4A, an area including the first area A and the second area B may be a proximity touch recognition area, and the first area A may be set as a haptic area.

도 4a(b)에 도시한 바와 같이, 오브젝트가 표시된 영역을 3개의 영역(A, B, C)으로 구분하거나, 혹은 도 4a(c)에 도시한 바와 같이, N(N>4) 개의 영역으로 구분할 수도 있다. 구분된 각 영역은 서로 다른 세기나 패턴을 갖는 촉각 효과가 발생하도록 구성될 수 있다. 하나의 오브젝트가 표시된 영역을 3개 혹은 그 이상의 영역으로 구분하는 경우에도, 햅틱 영역과 근접 터치 인식 영역은 사용환경에 따라 서로 다르게 설정할 수 있다. As shown in FIG. 4A, the area where the object is displayed is divided into three areas A, B, and C, or N (N> 4) areas as shown in FIG. . Each divided region can be configured to generate a tactile effect with different intensities or patterns. Even when the area in which one object is displayed is divided into three or more areas, the haptic area and the proximity touch recognition area can be set differently according to the use environment.

디스플레이부(151)에 근접 깊이에 따라 근접 터치 인식 영역의 크기가 달라지도록 구성할 수도 있다. 즉, 도 4b(a)에 도시한 바와 같이, 디스플레이부(151)에 대한 근접 깊이에 따라 대응하는 근접 터치 인식 영역이 'C', 'B', 'A'로 점차 작아지도록 구성하거나, 혹은 이와 반대로 디스플레이부(151)에 대한 근접 깊이에 따라 대응하는 근접 터치 인식 영역이 점차 커지도록 구성할 수도 있다. 이러한 경우 에도, 햅틱 영역은, 도 4b의 (b)에 도시한 'H'영역과 같이, 디스플레이부(151)에 대한 근접 깊이와 무관하게 일정한 크기로 설정할 수 있다. The size of the proximity touch recognition area may be changed depending on the proximity depth to the display unit 151. [ That is, as shown in FIG. 4B, the corresponding proximity touch recognition area may be gradually reduced to 'C', 'B', or 'A' according to the proximity depth to the display unit 151, Conversely, the corresponding proximity touch recognition area may be gradually increased according to the proximity depth to the display unit 151. [ In this case as well, the haptic area can be set to a constant size regardless of the proximity depth to the display unit 151, such as the 'H' area shown in FIG. 4B (b).

본 명세서에서 언급되는 이동 단말기는, 본 발명의 구현을 위하여, 도 1에 도시된 구성요소들 중 적어도 하나를 포함하고, 외부로부터 터치 동작(터치 드래그 동작 포함)을 입력받으면서 디스플레이 기능을 수행할 수 있는 터치 스크린을 포함한다고 가정한다.The mobile terminal referred to in the present specification may include at least one of the components shown in FIG. 1 for the implementation of the present invention and may perform a display function while receiving a touch operation (including a touch drag operation) from the outside It is assumed that it includes a touch screen.

이하에서는, 첨부된 도면들을 참조하여 본 발명에 따른 이동 단말기의 디스플레이 제어 방법에 대하여 상세히 설명한다.Hereinafter, a method of controlling a display of a mobile terminal according to the present invention will be described in detail with reference to the accompanying drawings.

도 5는, 본 발명의 일 실시예에 관련된 이동 단말기의 디스플레이 제어 방법의 흐름도이다.5 is a flowchart of a display control method of a mobile terminal according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 이동 단말기(100)는, 복수의 오브젝트를 포함하는 지도 이미지를 터치 스크린을 통하여 디스플레이한다(S510).As shown in FIG. 5, the mobile terminal 100 displays a map image including a plurality of objects through a touch screen (S510).

여기에서, 오브젝트는, 특정 위치(장소), 특정 건물, 특정 주소(행정 구역 상 주소) 등을 나타내는 지도 이미지상의 객체를 의미한다.Here, an object refers to an object on a map image indicating a specific location (place), a specific building, a specific address (address in the administrative area), and the like.

더 나아가, 디스플레이 단계(S510)에서 디스플레이되는 지도 이미지는, 복수의 오브젝트 각각에 해당하는 이미지를 포함할 수 있다. 이때, 오브젝트에 해당하는 이미지는, 카메라에 의해 직접 촬영되거나, 인터넷을 통하여 웹 사이트로부터 다운로드 받거나, 외부 단말기로부터 수신되거나, 지도 이미지 제공 업체에서 지도 이미지에 세팅하여 제공할 수도 있다.Furthermore, the map image displayed in the display step S510 may include an image corresponding to each of the plurality of objects. At this time, the image corresponding to the object may be photographed directly by a camera, downloaded from a website via the Internet, received from an external terminal, or provided by setting a map image on a map image provider.

디스플레이 단계(S510)는, 이동 단말기(100)를 이용하여 내비게이션 기능을 구동하는 경우, GPS 시스템으로부터 수신된 위치 정보(또는 좌표 정보)를 이용하여 생성된 지도 이미지를 디스플레이할 수 있다. 이때, 지도 이미지에는, 이동 단말기(100)의 현재 위치, 목적지 위치, 경로 정보 등이 포함될 수 있다.The display step S510 may display the map image generated using the position information (or coordinate information) received from the GPS system when driving the navigation function using the mobile terminal 100. [ At this time, the map image may include the current location of the mobile terminal 100, the destination location, route information, and the like.

또한, 디스플레이 단계(S510)는, 내비게이션 기능을 구동하는 경우가 아니라도, 내비게이션 구동 중에 캡쳐된 지도 이미지, 외부 단말기로부터 수신한 지도 이미지, 인터넷상 특정 웹 사이트로부터 다운로드 받은 지도 이미지 등을 디스플레이할 수 있다.In addition, the display step S510 can display a map image captured during driving of the navigation, a map image received from an external terminal, a map image downloaded from a specific web site on the Internet, etc., even when the navigation function is not driven have.

이동 단말기(100)는, 디스플레이 단계(S510)에서 디스플레이되는 지도 이미지에 포함된 복수의 오브젝트 중 제 1 오브젝트에 대한 터치 동작을 사용자로부터 입력받는다(S520).The mobile terminal 100 receives a touch operation for a first object among a plurality of objects included in the map image displayed in the display step S510 (S520).

더 나아가, 지도 이미지상에 복수의 오브젝트들 각각에 해당하는 이미지들이 디스플레이된 경우라면, 사용자는, 해당 이미지들 중 제 1 오브젝트에 해당하는 제 1 이미지를 터치할 수 있다.Furthermore, if images corresponding to a plurality of objects are displayed on the map image, the user can touch the first image corresponding to the first object among the images.

이동 단말기(100)는, 제 1 이미지에 대한 터치 동작을 입력받는 경우, 복수의 오브젝트들 각각에 해당하는 이미지들 중 제 1 이미지와 동일한 속성을 갖는 이미지(들)를 식별 표시할 수 있다. 여기에서, 제 1 이미지와 속성이 동일하다는 것은, 제 1 이미지와 생성 날짜가 동일한 것, 제 1 이미지와 파일 확장자가 동일한 것, 제 1 이미지의 해당 장소와 연관성이 있는 것 등을 의미할 수 있다.When receiving the touch operation for the first image, the mobile terminal 100 may identify and display the image (s) having the same attribute as the first image among the images corresponding to the plurality of objects. Here, the same attribute as the first image may mean that the first image and the creation date are the same, the first image and the file extension are the same, the first image is related to the corresponding place, and so on .

예를 들어, 도 6a 및 도 6b에 의하면, 이동 단말기(100)는, 제 1 이미지(610)에 대한 터치 동작을 입력받는 경우, 제 1 이미지(610)와 생성 날짜가 동일 한 제 4 이미지(640)를 식별 표시할 수 있다. 이때, 식별 표시 방법으로서, 사진 색상, 사진 테두리 진하기, 진동 효과 주기 등을 이용할 수 있다.6A and 6B, when the mobile terminal 100 receives the touch operation for the first image 610, the first image 610 and the fourth image (for example, 640). At this time, as the identification display method, it is possible to use photograph color, photo frame enhancement, vibration effect period, and the like.

이동 단말기(100)는, 입력 단계(S520)에서 제 1 오브젝트(또는 제 1 이미지)에 대한 터치 동작을 입력받는 경우, 제어부(180)의 제어에 따라 지도 이미지상에서 제 1 이미지를 활성화하여 디스플레이한다(S530, S540).The mobile terminal 100 activates and displays the first image on the map image under the control of the controller 180 when the touch operation for the first object (or the first image) is input in the input step S520 (S530, S540).

예를 들어, 제 1 이미지의 활성화 디스플레이는, 지도 이미지상에서 제 1 이미지를 디스플레이한 상태에서 제 1 이미지의 복사 이미지를 디스플레이하는 것을 의미할 수 있다(도 7a 참조).For example, the activation display of the first image may mean displaying a copy image of the first image with the first image displayed on the map image (see FIG. 7A).

더 나아가, 제 1 이미지의 활성화 디스플레이는, 진동 효과가 가해진 제 1 이미지 디스플레이, 특정 색상 효과가 가해진 제 1 이미지 디스플레이, 특정 진하기 효과가 가해진 제 1 이미지 디스플레이 등을 포함할 수 있다.Furthermore, the activation display of the first image may include a first image display with a vibrational effect, a first image display with a particular color effect, a first image display with a specific binocular effect, and so on.

디스플레이 단계(S540)에서, 이동 단말기(100)는, 입력 단계(S520)에서 입력된 터치 동작의 입력 지점을 기준으로 상기 활성화된 제 1 이미지를 디스플레이할 수 있다.In the display step S540, the mobile terminal 100 may display the activated first image based on the input point of the touch operation input in the input step S520.

또한, 디스플레이 단계(S540)에서, 이동 단말기(100)는, 입력 단계(S520)에서 터치 동작을 입력한 포인터(예를 들어, 사용자 손가락)에 상기 활성화된 제 1 이미지가 붙어 있는 것처럼 디스플레이할 수 있다.Also, in the display step S540, the mobile terminal 100 can display the activated first image attached to the pointer (for example, a user's finger) that has input the touch operation in the input step S520 have.

이동 단말기(100)는, 입력 단계(S520)에서 터치 동작을 입력받은 제 1 오브젝트(또는 제 1 이미지)에서 제 2 오브젝트(또는 제 2 오브젝트에 해당하는 제 2 이미지)로의 터치 드래그 동작을 사용자로부터 입력받는다(S550).The mobile terminal 100 transmits a touch drag operation from the first object (or the first image) to the second object (or the second image corresponding to the second object), which receives the touch operation in the input step S520, (S550).

이동 단말기(100)는, 입력 단계(S550)에서 입력되는 터치 드래그 동작의 경로에 상응하도록 상기 활성화된 제 1 이미지를 이동 디스플레이할 수 있다(도 7a 내지 도 7c 참조).The mobile terminal 100 may move and display the activated first image to correspond to the path of the touch drag operation input in the input step S550 (see FIGS. 7A to 7C).

이동 단말기(100)는, 입력 단계(S550)에서 제 1 오브젝트(또는 제 1 이미지)에서 제 2 오브젝트(또는 제 2 이미지)로의 터치 드래그 동작을 입력받음에 따라, 지도 이미지상에서 제 2 이미지를 활성화한다(S560).The mobile terminal 100 activates the second image on the map image by receiving the touch drag operation from the first object (or the first image) to the second object (or the second image) in the input step S550 (S560).

그리고, 이동 단말기(100)는, 제어부(180)의 제어에 따라, 상기 활성화된 제 1 및 제 2 이미지를 지도 이미지상에 디스플레이한다(S570).Then, the mobile terminal 100 displays the activated first and second images on the map image under the control of the controller 180 (S570).

예를 들어, 제 1 및 제 2 이미지의 활성화 디스플레이는, 지도 이미지상에서 제 1 및 제 2 이미지를 디스플레이한 상태에서 제 1 및 제 2 이미지 각각의 복사 이미지를 디스플레이하는 것을 의미할 수 있다(도 7a 참조).For example, the activation display of the first and second images may mean displaying a copy image of each of the first and second images while displaying the first and second images on the map image (Fig. 7A Reference).

디스플레이 단계(S570)에서, 이동 단말기(100)는, 입력 단계(S550)에서 입력된 터치 드래그 동작의 종료 지점을 기준으로 상기 활성화된 제 1 및 제 2 이미지를 디스플레이할 수 있다.In the display step S570, the mobile terminal 100 may display the activated first and second images based on the end point of the touch drag operation input in the input step S550.

또한, 디스플레이 단계(S570)에서, 이동 단말기(100)는, 입력 단계(S550)에서 터치 드래그 동작을 입력한 포인터(예를 들어, 사용자 손가락)에 상기 활성화된 제 1 및 제 2 이미지가 붙어 있는 것처럼 디스플레이할 수 있다.In addition, in the display step S570, the mobile terminal 100 determines whether or not the activated first and second images are attached to a pointer (for example, a user finger) inputting the touch drag operation in the input step S550 ≪ / RTI >

이하에서는, 첨부된 도면들을 참조하여, 터치 드래그 동작에 의해 활성화된 복수의 이미지들을 선택 및 디스플레이하는 과정을 상세히 설명한다.Hereinafter, a process of selecting and displaying a plurality of images activated by the touch drag operation will be described in detail with reference to the accompanying drawings.

설명의 편의를 위하여, 지도 이미지상에는 제 1 내지 제 4 오브젝트 각각에 해당하는 제 1 내지 제 4 이미지(610 내지 640)가 디스플레이된다고 가정한다.For convenience of explanation, it is assumed that first to fourth images 610 to 640 corresponding to the first to fourth objects are displayed on the map image.

도 7a에 의하면, 이동 단말기(100)는, 제 1 이미지(610)에 대한 사용자의 터치 동작을 입력받는 경우, 제 1 이미지(610)를 활성화함에 따라 제 1 이미지(610)의 복사 이미지(이하 제 1 복사 이미지)(611)를 디스플레이할 수 있다(a).7A, when the mobile terminal 100 receives a user's touch operation on the first image 610, the mobile terminal 100 generates a copy image (hereinafter referred to as " copy image ") of the first image 610 as the first image 610 is activated (A first copy image) 611 (Fig.

그리고, 이동 단말기(100)는, 제 1 이미지(610)가 활성화된 상태에서 특정 방향으로의 터치 드래그 동작을 입력받는 경우, 터치 드래그 동작의 이동 경로에 따라 제 1 복사 이미지(611)를 이동 디스플레이할 수 있다(b).When the first image 610 is activated and the touch-drag operation is performed in a specific direction, the mobile terminal 100 displays the first copy image 611 in accordance with the movement path of the touch- (B) It can be done.

도 7b에 의하면, 이동 단말기(100)는, 제 1 이미지(610)가 활성화된 상태에서 제 1 이미지(610)에서 제 4 이미지(640)로의 터치 드래그 동작을 사용자로부터 입력받는 경우, 제 4 이미지(640)를 활성화함에 따라 제 4 이미지(640)의 주변에서(또는 터치 드래그 동작의 종료 지점을 기준으로) 제 1 복사 이미지(611) 및 제 4 이미지(640)의 복사 이미지(이하 제 4 복사 이미지)(641)를 디스플레이할 수 있다(a).7B, when the mobile terminal 100 receives a touch drag operation from the first image 610 to the fourth image 640 from the user while the first image 610 is active, The first copy image 611 and the copy image of the fourth image 640 (hereinafter referred to as the fourth copy 640) are generated at the periphery of the fourth image 640 (or at the end point of the touch drag operation) Image) 641 (a).

그리고, 이동 단말기(100)는, 도 7b(a) 상태에서 특정 방향으로의 터치 드래그 동작을 입력받는 경우, 터치 드래그 동작의 이동 경로에 따라 제 1 및 제 4 복사 이미지(611, 641)를 이동 디스플레이할 수 있다(b).7B, the mobile terminal 100 moves the first and fourth copy images 611 and 641 according to the movement path of the touch drag operation when the touch drag operation in the specific direction is inputted in the state of FIG. 7B (a) (B).

도 7c에 의하면, 이동 단말기(100)는, 제 1 및 제 4 이미지(610, 640)가 활성화된 상태에서 제 4 이미지(640)에서 제 3 이미지(630)로의 터치 드래그 동작을 사용자로부터 입력받는 경우, 제 3 이미지(630)를 활성화함에 따라 제 3 이미지(630)의 주변에서(또는 터치 드래그 동작의 종료 지점을 기준으로) 제 1 및 제 4 복사 이미지(611, 641), 및 제 3 이미지(630)의 복사 이미지(이하 제 3 복사 이미지)(631)를 디스플레이할 수 있다.7C, when the first and fourth images 610 and 640 are activated, the mobile terminal 100 receives a touch drag operation from the fourth image 640 to the third image 630 from the user The first and fourth copy images 611 and 641, and the third image 630, in the periphery of the third image 630 (or on the basis of the end point of the touch drag operation) as the third image 630 is activated, (Hereinafter referred to as a third copy image) 631 of the second copy image 630. [

도 7a 내지 도 7c에서 도시된 터치 동작 또는 터치 드래그 동작에 의해 제 1, 제 4, 및 제 3 이미지(610, 640, 630)가 순차적으로 활성화 및 선택되었음을 알 수 있다. 그리고, 이동 단말기(100)는, 도 7c에서 터치 드래그 동작이 제거되는 경우 제 1, 제 3, 및 제 4 이미지(610, 630, 640)의 선택을 확정할 수 있다.It can be seen that the first, fourth, and third images 610, 640, and 630 are sequentially activated and selected by the touch operation or the touch drag operation shown in Figs. 7A to 7C. Then, the mobile terminal 100 can confirm the selection of the first, third, and fourth images 610, 630, and 640 when the touch drag operation is removed in FIG. 7C.

또한, 이동 단말기(100)는, 도 7c에서 터치 드래그 동작이 제거되는 경우, 선택 확정된 제 1, 제 3, 및 제 4 이미지(610, 630, 640)를 이용한 폴더 생성 여부를 결정할 수 있다. 이에 관련하여, 도 8a 및 도 8b를 참조하여 상세히 설명한다.In addition, when the touch drag operation is removed in FIG. 7C, the mobile terminal 100 can determine whether to generate a folder using the selected first, third, and fourth images 610, 630, and 640. This will be described in detail with reference to Figs. 8A and 8B.

도 8a(a)에 도시된 바와 같이, 이동 단말기(100)는, 도 7c에서 터치 드래그 동작이 제거되면, 선택 확정된 제 1, 제 3 및 제 4 이미지(610, 630, 640)를 이용하여 폴더를 생성할지 여부를 묻는 문구(810)를 화면상에 디스플레이할 수 있다.As shown in FIG. 8A, when the touch drag operation is removed in FIG. 7C, the mobile terminal 100 uses the selected first, third, and fourth images 610, 630, and 640 A phrase 810 asking whether to create a folder can be displayed on the screen.

또는, 도 8a(b)에 도시된 바와 같이, 이동 단말기(100)는, 제 1, 제 3, 및 제 4 이미지(610, 630, 640)가 선택 확정된 상태에서, 제 1, 제 3 및 제 4 복사 이미지(611, 631, 641)에서 화면상에 구비된 폴더 생성 명령 영역(820)으로의 터치 드래그 동작을 입력받거나 폴더 생성 명령 영역(820)에 대한 선택 동작을 입력받을 수 있다.Alternatively, as shown in FIG. 8 (a), the mobile terminal 100 may be configured such that the first, third, and fourth images 610, 630, 640, The user can input the touch drag operation to the folder creation command area 820 provided on the screen in the fourth copy image 611, 631 or 641 or input the selection operation for the folder creation command area 820. [

이동 단말기(100)는, 도 8a(a)에서 폴더 생성('예')이 선택되거나 도 8a(b)에서 폴더 생성 영역(820)으로의 터치 드래그 동작을 입력받음에 따라, 제 1, 제 3, 및 제 4 이미지(610, 630, 640)를 포함하는 폴더를 생성할 수 있다(도 8b).The mobile terminal 100 may be configured to generate the first and second frames by selecting folder creation (YES) in FIG. 8A or receiving a touch drag operation to the folder creation area 820 in FIG. 8A (b) 3, and a fourth image 610, 630, 640 (FIG. 8B).

예를 들어, 도 8b(a)는 제 1, 제 3, 및 제 4 이미지(610, 630, 640)를 포함하는 폴더의 상세 정보(명칭, 생성날짜, 용량)를 입력하는 화면 구성이고, 도 8b(b)는 제 1, 제 3, 및 제 4 이미지(610, 630, 640)를 포함하는 폴더(명칭: 추억 만들기)를 포함하는 사진 폴더 리스트를 디스플레이하는 화면 구성이다.For example, FIG. 8B illustrates a screen configuration for inputting detailed information (name, creation date, and capacity) of a folder including the first, third, and fourth images 610, 630, and 640, 8b (b) is a screen configuration for displaying a photo folder list including folders (name: memory creation) including the first, third, and fourth images 610, 630, and 640.

도 5로 복귀하여, 이동 단말기(100)는, 제어부(180)의 제어에 따라, 상기 활성화된 제 1 및 제 2 이미지를 무선 통신부(110)를 이용하여 외부 단말기로 송신한다(S580).5, the mobile terminal 100 transmits the activated first and second images to the external terminal using the wireless communication unit 110 according to the control of the controller 180 (S580).

예를 들어, 이동 단말기(100)는, 외부 단말기로의 송신 동작으로서, 이메일 서비스를 이용한 송신, 메시징 서비스를 이용한 송신, 특정 웹 사이트로의 업로드, 특정 블로그로의 업로드 중 적어도 하나를 수행할 수 있다.For example, as a transmission operation to an external terminal, the mobile terminal 100 can perform at least one of transmission using an e-mail service, transmission using a messaging service, uploading to a specific website, or uploading to a specific blog have.

더욱 구체적으로, 이동 단말기(100)는, 터치 스크린을 통하여 상기 활성화된 제 1 및 제 2 이미지의 송신 명령 신호를 입력받는 경우, 무선 통신부(110)를 통하여 상기 활성화된 제 1 및 제 2 이미지를 특정 웹 사이트로 송신할 수 있다.More specifically, when receiving the transmission command signals of the activated first and second images through the touch screen, the mobile terminal 100 transmits the activated first and second images through the wireless communication unit 110, You can send it to a specific website.

이때, 이동 단말기(100)는, 상기 활성화된 제 1 및 제 2 이미지에 관련된 날짜 정보, 위치 정보 또는 메모 정보를 함께 송신할 수 있다.At this time, the mobile terminal 100 may transmit the date information, the position information, or the memo information related to the activated first and second images together.

이에 관련하여, 첨부된 도면들을 참조하여 상세히 설명하도록 한다. 설명의 편의를 위하여, 도 7c에 이어서 설명하도록 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. For convenience of explanation, the description will be continued from FIG. 7C.

도 9(a)에 의하면, 이동 단말기(100)는, 도 7c의 터치 드래그 동작이 제거되는 경우, 선택된 제 1, 제 3, 제 4 이미지(610, 630, 640)의 송신 형태를 선택받기 위하여 송신 형태 리스트(910)를 디스플레이할 수 있다. 예를 들어, 송신 형태 리 스트(910)에는, 내 블로그로의 송신, 친구 블로그로의 송신, 인터넷을 통한 특정 웹 사이트로의 업로드, 이메일을 이용한 송신, 메시지를 이용한 송신 등이 포함될 수 있다.9A, when the touch drag operation of FIG. 7C is canceled, the mobile terminal 100 selects a transmission mode of the selected first, third, and fourth images 610, 630, and 640 And display the transmission form list 910. [ For example, the send form list 910 may include sending to my blog, sending to a friend blog, uploading to a specific website via the Internet, sending using email, sending using a message, and the like.

또는, 도 9(b)에 의하면, 이동 단말기(100)는, 화면상에 송신 형태별로 복수의 송신 명령 영역(921 내지 925)을 디스플레이하고, 제 1, 제 3 및 제 4 복사 이미지(611, 631, 641)에서 특정 송신 명령 영역으로의 터치 드래그 동작을 입력받을 수 있다.9B, the mobile terminal 100 displays a plurality of transmission command areas 921 to 925 for each transmission mode on the screen, and the first, third and fourth copy images 611, 631, and 641 can receive a touch drag operation to a specific transmission command area.

도 10a 내지 도 10c는, 도 9(a)에서 송신 형태 리스트 중 내 블로그로의 송신이 선택되거나, 도 9(b)에서 내 블로그로의 송신 명령 영역(921)으로의 터치 드래그 동작을 입력받은 경우를 도시한다.Figs. 10A to 10C are diagrams showing a case where the transmission to the blog is selected in the transmission form list in Fig. 9A or the touch drag operation in the transmission command area 921 to the blog is input in Fig. 9B Fig.

이동 단말기(100)는, 선택된 제 1, 제 3, 제 4 이미지(610, 630, 640)를 메인 블로그로 업로드 할지 여부를 묻는 문구(1010)를 화면상에 디스플레이할 수 있다(도 10a).The mobile terminal 100 may display on the screen a message 1010 asking whether to upload the selected first, third, and fourth images 610, 630, and 640 to the main blog (FIG. 10A).

도 10a에서 메인 블로그로의 송신이 선택되지 않은 경우('아니오' 선택), 이동 단말기(100)는, 내 블로그 리스트를 디스플레이하고, 내 블로그 리스트로부터 선택된 블로그로의 접속을 시도할 수 있다(도 10b). 접속 성공에 따른 이미지 업로드 및 블로그 화면 디스플레이 과정은 도 10c의 설명을 참조하도록 한다.10A, when the transmission to the main blog is not selected (No is selected), the mobile terminal 100 can display a list of my blogs and try to connect to the selected blog from the list of my blogs 10b). The image uploading process and the blog screen display process in accordance with the connection success will be described with reference to FIG. 10C.

한편, 도 10a에서 메인 블로그로의 송신이 선택된 경우('예' 선택), 이동 단말기(100)는, 메인 블로그에 접속하여 상기 선택된 제 1, 제 3, 제 4 이미지(610, 630, 640)를 메인 블로그에 업로드 하고, 제 1, 제 3, 제 4 이미지(610, 630, 640) 가 업로드 된 블로그 화면을 디스플레이할 수 있다(도 10c).If the transmission to the main blog is selected (YES), the mobile terminal 100 accesses the main blog and selects the first, third, and fourth images 610, 630, and 640, And the first, third, and fourth images 610, 630, and 640 are uploaded to the main blog (FIG. 10C).

이때, 블로그 화면상에서 제 1, 제 3, 제 4 이미지(610, 630, 640)가 식별 표시될 수 있다. 또한, 제 1, 제 3, 제 4 이미지(610, 630, 640)에 포함된 메모 정보, 위치 정보 또는 날짜 정보 등이 함께 업로드 될 수 있다.At this time, the first, third, and fourth images 610, 630, and 640 may be identified and displayed on the blog screen. In addition, memo information, location information, or date information included in the first, third, and fourth images 610, 630, and 640 may be uploaded together.

또한, 도 11a에 의하면, 이동 단말기(100)는, 도 9(a)에서 송신 형태 리스트 중 이메일이 선택되거나, 도 9(b)에서 이메일을 이용한 송신 명령 영역(924)으로의 터치 드래그 동작을 입력받은 경우, 이메일 작성 모드로 진입하여, 제 1, 제 3, 제 4 이미지(610, 630, 640)가 첨부된 이메일 작성 화면을 디스플레이할 수 있다.11A, when the mobile terminal 100 selects e-mail from the transmission form list in FIG. 9A or performs a touch drag operation to the transmission command area 924 using e-mail in FIG. 9B If an input is received, the e-mail creation mode is entered and an e-mail composition screen with the first, third, and fourth images 610, 630, and 640 is displayed.

또는, 도 11b에 의하면, 이동 단말기(100)는, 도 9(a)에서 송신 형태 리스트 중 메시지가 선택되거나, 도 9(b)에서 메시지를 이용한 송신 명령 영역(925)으로의 터치 드래그 동작을 입력받은 경우, 메시지 작성 모드로 진입하여, 제 1, 제 3, 제 4 이미지(610, 630, 640)가 첨부된 메시지 작성 화면을 디스플레이할 수 있다.11B, the mobile terminal 100 selects the message in the transmission mode list in FIG. 9A or performs the touch drag operation to the transmission command area 925 using the message in FIG. 9B When receiving the input, the message creation mode is entered and a message creation screen with the first, third, and fourth images 610, 630, and 640 is displayed.

또한, 본 발명의 일실시예에 의하면, 전술한 이동 단말기의 디스플레이 제어 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.In addition, according to an embodiment of the present invention, the above-described display control method of the mobile terminal can be implemented as a code that can be read by a processor on a medium on which the program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 이동 단말기 및 이것의 디스플레이 제어 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적 으로 조합되어 구성될 수도 있다.The above-described mobile terminal and its display control method are not limited to the configuration and method of the above-described embodiments, but the embodiments can be applied to all or a part of each embodiment Or may be selectively combined.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram).1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

도 2a 및 2b는 본 발명과 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 이동 단말기의 정면도들.2A and 2B are front views of a mobile terminal for explaining one operation state of a mobile terminal according to the present invention.

도 3은 근접 센서의 근접 깊이를 설명하기 위한 개념도.3 is a conceptual diagram for explaining the proximity depth of the proximity sensor;

도 4a 및 도 4b는 각각 근접신호가 검출되는 근접 터치 인식 영역과 촉각 효과를 발생하는 햅틱 영역에 대한 설명을 위한 개념도들. 4A and 4B are conceptual diagrams for explaining a proximity touch recognition area in which a proximity signal is detected and a haptic area for generating a tactile effect, respectively.

도 5는 본 발명의 일 실시예에 관련된 이동 단말기의 디스플레이 제어 방법의 흐름도.5 is a flowchart of a display control method of a mobile terminal according to an embodiment of the present invention.

도 6a 및 도 6b는 본 발명에 관련하여 특정 이미지를 터치한 경우 동일 속성의 이미지들이 식별 표시되는 도면들.FIGS. 6A and 6B illustrate images of the same attribute when the specific image is touched in accordance with the present invention. FIG.

도 7a 내지 도 7c는 본 발명에 관련하여 터치 드래그 동작에 의해 활성화된 복수의 이미지들을 선택 및 디스플레이하는 도면들.7A to 7C are diagrams for selecting and displaying a plurality of images activated by a touch drag operation according to the present invention.

도 8a 및 도 8b는 본 발명에 관련하여 터치 드래그 동작에 의해 선택된 복수이미지들을 포함하는 폴더를 생성하는 도면들.8A and 8B are diagrams for creating a folder containing a plurality of images selected by a touch drag operation in connection with the present invention.

도 9 내지 도 11b는 본 발명에 관련하여 터치 드래그 동작에 의해 선택된 복수의 이미지들을 외부로 송신하는 도면들.FIGS. 9 to 11B illustrate transmission of a plurality of images selected by a touch drag operation to the outside in accordance with the present invention. FIG.

Claims (10)

지도 이미지에 포함된 복수의 오브젝트 중 제 1 오브젝트에 대한 터치 동작 및 상기 제 1 오브젝트에서 제 2 오브젝트로의 터치 드래그 동작을 입력받는 터치 스크린; 및A touch screen for inputting a touch operation of a first object and a touch drag operation of the first object to a second object among a plurality of objects included in a map image; And 상기 터치 동작의 입력 지점을 기준으로 상기 제 1 오브젝트에 해당하는 제 1 이미지를 활성화하여 디스플레이하고, 상기 제 1 이미지가 활성화된 상태에서 상기 터치 드래그 동작을 입력받는 경우 상기 터치 드래그 동작의 종료 지점을 기준으로 상기 제 1 이미지 및 상기 제 2 오브젝트에 해당하는 제 2 이미지를 활성화하여 디스플레이하도록 상기 터치 스크린을 제어하는 제어부; 및Wherein the first image corresponding to the first object is activated and displayed on the basis of the input point of the touch operation and the end point of the touch drag operation when the first drag image is input in the activated state A control unit for controlling the touch screen to activate and display a second image corresponding to the first image and the second object based on the first image; And 상기 터치 스크린을 통하여 상기 활성화된 제 1 및 제 2 이미지의 송신 명령 신호를 입력받는 경우, 상기 제어부의 제어에 따라, 상기 활성화된 제 1 및 제 2 이미지를 특정 웹 사이트로 송신하는 무선 통신부를 포함하는 이동 단말기.And a wireless communication unit for transmitting the activated first and second images to a specific web site under the control of the controller when receiving the transmission command signals of the activated first and second images through the touch screen . 제 1 항에 있어서, 상기 터치 스크린은,The touch screen of claim 1, 상기 복수의 오브젝트 각각에 해당하는 이미지를 포함하는 지도 이미지를 디스플레이하는 이동 단말기.And displays a map image including an image corresponding to each of the plurality of objects. 제 2 항에 있어서, 상기 터치 스크린은,The touch screen according to claim 2, 상기 제어부의 제어에 따라, 상기 활성화된 제 1 및 제 2 이미지로서 상기 제 1 및 제 2 이미지 각각의 복사 이미지를 디스플레이는 이동 단말기.And displays a copy image of each of the first and second images as the activated first and second images under the control of the control unit. 제 2 항에 있어서, 상기 터치 스크린은,The touch screen according to claim 2, 상기 터치 동작을 입력받음에 따라, 상기 복수의 오브젝트 각각에 해당하는 이미지 중 상기 제 1 이미지와 동일한 속성을 갖는 이미지를 식별되게 디스플레이하는 이동 단말기.And displays the image having the same attribute as the first image among the images corresponding to the plurality of objects when the touch operation is received. 제 1 항에 있어서, 상기 터치 스크린은,The touch screen of claim 1, 상기 제어부의 제어에 따라, 상기 터치 드래그 동작의 경로에 상응하도록 상기 활성화된 제 1 이미지를 이동 디스플레이하는 이동 단말기.And displays the activated first image so as to correspond to the path of the touch drag operation under the control of the control unit. 제 1 항에 있어서, 상기 무선 통신부는,The wireless communication system according to claim 1, 상기 제어부의 제어에 따라, 상기 송신되는 제 1 및 제 2 이미지에 관련된 위치 정보, 날짜 정보, 메모 정보 중 적어도 하나를 상기 특정 웹 사이트로 송신하는 이동 단말기.And transmits at least one of position information, date information, and memo information related to the first and second images transmitted to the specific web site under the control of the controller. 제 1 항에 있어서, 상기 무선 통신부는,The wireless communication system according to claim 1, 상기 제어부의 제어에 따라, 이메일 서비스, 메시징 서비스, 특정 블로그로의 업로드 중 적어도 하나를 이용하여 상기 활성화된 제 1 및 제 2 이미지를 외부 단말기로 송신하는 이동 단말기.And transmits the activated first and second images to an external terminal using at least one of an e-mail service, a messaging service, and an upload to a specific blog under the control of the controller. 복수의 오브젝트를 포함하는 지도 이미지를 디스플레이하는 제 1 디스플레이 단계;A first display step of displaying a map image including a plurality of objects; 상기 복수의 오브젝트 중 제 1 오브젝트에 대한 터치 동작을 입력받음에 따라, 상기 제 1 오브젝트에 해당하는 제 1 이미지를 활성화하는 제 1 활성화 단계;A first activation step of activating a first image corresponding to the first object upon receiving a touch operation for a first object among the plurality of objects; 상기 터치 동작의 입력 지점을 기준으로 상기 활성화된 제 1 이미지를 디스플레이하는 제 2 디스플레이 단계;A second display step of displaying the activated first image based on an input point of the touch operation; 상기 제 1 이미지가 활성화된 상태에서 상기 제 1 오브젝트에서 상기 복수의 오브젝트 중 제 2 오브젝트로의 터치 드래그 동작을 입력받음에 따라, 상기 제 2 오브젝트에 해당하는 제 2 이미지를 활성화하는 제 2 활성화 단계;A second activation step of activating a second image corresponding to the second object upon receiving a touch drag operation from the first object to the second object in a state in which the first image is activated, ; 상기 터치 드래그 동작의 종료 지점을 기준으로 상기 활성화된 제 1 및 제 2 이미지를 디스플레이하는 제 3 디스플레이 단계;A third display step of displaying the activated first and second images based on an end point of the touch drag operation; 상기 활성화된 제 1 및 제 2 이미지의 송신 명령 신호를 입력받는 단계; 및Receiving a transmission command signal of the activated first and second images; And 상기 송신 명령 신호를 입력받음에 따라, 상기 활성화된 제 1 및 제 2 이미지를 특정 웹 사이트로 송신하는 송신 단계를 포함하는 이동 단말기의 디스플레이 제어 방법.And transmitting the activated first and second images to a specific web site upon receipt of the transmission command signal. 제 8 항에 있어서, 상기 제 1 디스플레이 단계는,9. The method of claim 8, 상기 복수의 오브젝트 각각에 해당하는 이미지를 포함하는 지도 이미지를 디스플레이하는 이동 단말기의 디스플레이 제어 방법.And displaying a map image including an image corresponding to each of the plurality of objects. 제 8 항에 있어서, 상기 송신 단계는,9. The method according to claim 8, 상기 활성화된 제 1 및 제 2 이미지에 관련된 위치 정보, 날짜 정보, 메모 정보 중 적어도 하나를 상기 특정 웹 사이트로 송신하는 이동 단말기의 디스플레이 제어 방법.And transmits at least one of position information, date information, and memo information related to the activated first and second images to the specific web site.
KR1020090111408A 2009-11-18 2009-11-18 Mobile terminal and method for controlling display thereof KR101578008B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090111408A KR101578008B1 (en) 2009-11-18 2009-11-18 Mobile terminal and method for controlling display thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090111408A KR101578008B1 (en) 2009-11-18 2009-11-18 Mobile terminal and method for controlling display thereof

Publications (2)

Publication Number Publication Date
KR20110054665A KR20110054665A (en) 2011-05-25
KR101578008B1 true KR101578008B1 (en) 2015-12-16

Family

ID=44363822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090111408A KR101578008B1 (en) 2009-11-18 2009-11-18 Mobile terminal and method for controlling display thereof

Country Status (1)

Country Link
KR (1) KR101578008B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059220A (en) 2006-08-30 2008-03-13 Olympus Imaging Corp Data management device, camera, data management program, and data management method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7665028B2 (en) * 2005-07-13 2010-02-16 Microsoft Corporation Rich drag drop user interface
KR20070109580A (en) * 2006-05-12 2007-11-15 삼성전자주식회사 Mobile terminal capable of linking path to annexed data and related method
KR100950070B1 (en) * 2007-09-07 2010-03-26 문해영 Apparatus and method for authoring travel information content and apparatus for reproducing the same content

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059220A (en) 2006-08-30 2008-03-13 Olympus Imaging Corp Data management device, camera, data management program, and data management method

Also Published As

Publication number Publication date
KR20110054665A (en) 2011-05-25

Similar Documents

Publication Publication Date Title
EP2180676B1 (en) Mobile communication terminal and screen scrolling method thereof
KR101830965B1 (en) Mobile Terminal And Method Of Controlling The Same
KR101633332B1 (en) Mobile terminal and Method of controlling the same
KR101685982B1 (en) Mobile terminal and Method for controlling 3 dimention display thereof
KR101623783B1 (en) Mobile terminal and method for extracting data thereof
KR101638918B1 (en) Mobile terminal and Method for converting display mode thereof
KR101667577B1 (en) Mobile terminal and method for controlling displaying thereof
US20110084962A1 (en) Mobile terminal and image processing method therein
KR20110037024A (en) Mobile terminal and method for controlling application execution thereof
KR101692729B1 (en) Mobile terminal, and method for producing and obtaining message about outside object
KR20110049031A (en) Mobile terminal and method of controlling thereof
KR101980702B1 (en) Mobile terminal and method for controlling thereof
KR101701836B1 (en) Mobile terminal and Method for controlling message transmission thereof
KR20110064289A (en) Method for transmitting and receiving data and mobile terminal thereof
KR101476201B1 (en) Mobile terminal and display method thereof
KR20110022217A (en) Mobile and method for controlling the same
KR101622216B1 (en) Mobile terminal and method for controlling input thereof
KR101813034B1 (en) Mobile terminal and Method for controlling display thereof
KR20120033659A (en) Mobile terminal and method for controlling the same
KR101578008B1 (en) Mobile terminal and method for controlling display thereof
KR20110131910A (en) Mobile terminal and method for controlling the same
KR101740432B1 (en) Mobile terminal and method for controlling display
KR20110130751A (en) Mobile terminal and method for controlling the same
KR101674953B1 (en) Mobile terminal and Method for displaying object icon thereof
KR101749106B1 (en) Mobile terminal and method for processing image thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee