KR101469280B1 - Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same - Google Patents

Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same Download PDF

Info

Publication number
KR101469280B1
KR101469280B1 KR1020080030446A KR20080030446A KR101469280B1 KR 101469280 B1 KR101469280 B1 KR 101469280B1 KR 1020080030446 A KR1020080030446 A KR 1020080030446A KR 20080030446 A KR20080030446 A KR 20080030446A KR 101469280 B1 KR101469280 B1 KR 101469280B1
Authority
KR
South Korea
Prior art keywords
touch screen
touch
input medium
portable terminal
objects
Prior art date
Application number
KR1020080030446A
Other languages
Korean (ko)
Other versions
KR20090105160A (en
Inventor
김종환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020080030446A priority Critical patent/KR101469280B1/en
Publication of KR20090105160A publication Critical patent/KR20090105160A/en
Application granted granted Critical
Publication of KR101469280B1 publication Critical patent/KR101469280B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 입력 매체의 근접 터치 동작을 감지할 수 있는 휴대 단말기 및 이를 이용한 그래픽 사용자 인터페이스 제공 방법에 관한 것이다. The present invention relates to a portable terminal capable of sensing a proximity touch operation of an input medium, and a method of providing a graphical user interface using the portable terminal.

본 발명에 따른 휴대 단말기는, 입력 매체의 터치 스크린을 근접 터치하거나 직접 터치하는 동작을 서로 구별할 수 있다. 특히 상기 휴대 단말기는 상기 터치 스크린에 소정의 하위 레이어 객체가 디스플레이됨과 아울러 상기 하위 레이어 객체의 상부에 상위 레이어 객체의 적어도 일부가 겹쳐서 디스플레이된 상태에서, 상기 입력 매체가 상기 상위 레이어 객체를 근접 터치한 후 상기 터치 스크린의 표면을 따라 이동하는 동작을 식별하여, 상기 입력 매체의 이동에 대응하여 상기 상위 레이어 객체가 상기 터치 스크린에서 이동하도록 디스플레이할 수 있다. 이에 따라, 상기 휴대 단말기는 입력 매체의 직접 또는 근접 터치 동작에 따라 다양한 그래픽 사용자 인터페이스를 제공할 수 있다.The portable terminal according to the present invention can distinguish the operation of touching or touching the touch screen of the input medium. Particularly, in the portable terminal, a predetermined lower layer object is displayed on the touch screen, and at least a part of an upper layer object is overlaid on the lower layer object, and the input medium touches the upper layer object And displaying the upper layer object to move on the touch screen in response to movement of the input medium. Accordingly, the portable terminal can provide various graphic user interfaces according to direct or proximity touch operation of the input medium.

휴대 단말기, 터치 스크린, 근접 터치, 사용자 인터페이스 Mobile terminal, touch screen, proximity touch, user interface

Description

근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한 그래픽 사용자 인터페이스 제공 방법{PORTABLE TERMINAL CAPABLE OF SENSING PROXIMITY TOUCH AND METHOD FOR PROVIDING GRAPHIC USER INTERFACE USING THE SAME}Technical Field [0001] The present invention relates to a portable terminal having a proximity touch sensing function and a graphical user interface using the portable terminal. [0002]

본 발명은 휴대 단말기에 관한 것으로, 특히 입력 매체의 근접 터치 동작을 감지할 수 있는 휴대 단말기 및 이를 이용한 그래픽 사용자 인터페이스 제공 방법에 관한 것이다. The present invention relates to a portable terminal, and more particularly, to a portable terminal capable of detecting a proximity touch operation of an input medium and a method of providing a graphical user interface using the portable terminal.

일반적으로, 휴대 단말기는 휴대가 가능하면서 음성 및 영상 통화 기능, 정보를 입·출력하는 기능 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다.2. Description of the Related Art Generally, a portable terminal is a portable device having one or more functions that can carry a voice and video call, a function for inputting / outputting information, and a function for storing data.

그리고 휴대 단말기는 기능이 다양화됨에 따라 예를 들어 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복잡한 기능들을 갖추고 있으며, 종합적인 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. As the functions of the portable terminal are diversified, for example, the portable terminal has complicated functions such as photographing and photographing of a moving picture, reproduction of music or video file, reception of a game and broadcasting, and is implemented as a multimedia device .

이러한 멀티 미디어 기기에는 복잡한 기능을 구현하기 위해 하드웨어 또는 소프트웨어의 면에서 새로운 다양한 시도들이 적용되고 있다. 일 예로 사용자가 쉽고 편리하게 기능을 검색하거나 선택하기 위한 사용자 인터페이스(User Interface) 환경이 제공되고 있다.In order to implement complex functions in multimedia devices, various new attempts have been made in terms of hardware or software. For example, a user interface environment is provided for a user to easily and conveniently search for or select a function.

또한, 최근에는 다양한 사용자 인터페이스 환경을 제공하기 위하여 디스플레이 모듈에 터치패드를 결합한 터치스크린이 휴대 단말기에 채용되고 있으며, 이로 인하여 사용자는 디스플레이 모듈에 구현된 화면을 보면서 다양한 사용자 명령을 입력하거나 기능을 선택할 수 있게 되었다.In recent years, in order to provide various user interface environments, a touch screen having a touch pad coupled to a display module is employed in a portable terminal. Thus, a user can input various user commands while viewing a screen implemented in the display module, It was possible.

그러나, 종래의 터치스크린을 이용한 휴대 단말기에서는 사용자가 단순히 휴대 단말기의 화면에 디스플레이된 메뉴 또는 아이콘을 손가락으로 직접 터치함으로써 상기 메뉴 또는 아이콘과 관련된 기능을 선택할 수 있을 뿐, 사용자의 다양한 동작에 따른 사용자 인터페이스 환경을 제공하지 못하는 문제가 있다.However, in a conventional portable terminal using a touch screen, a user can simply select a function associated with the menu or icon by directly touching a menu or icon displayed on the screen of the portable terminal with a finger, There is a problem that the interface environment can not be provided.

본 발명은 상기와 같은 문제점을 해소하기 위한 것으로서, 근접 터치 감지 기능을 갖는 휴대 단말기를 이용하여 사용자의 서로 다른 터치 동작에 따라 다양한 사용자 친화적인 그래픽 사용자 인터페이스를 제공하기 위한 것이다. SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide various user-friendly graphical user interfaces according to different touch operations of a user using a mobile terminal having a proximity touch sensing function.

상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 휴대 단말기는, 입력 매체의 근접 터치 또는 직접 터치 동작에 따라 서로 다른 터치 입력 신호를 생성하며, 소정의 하위 레이어 객체를 디스플레이함과 아울러 상기 하위 레이어 객체의 상부에 상위 레이어 객체의 적어도 일부를 겹쳐서 디스플레이하는 터치 스크린, 및 상기 입력 매체가 상기 상위 레이어 객체를 근접 터치한 상태에서 상기 터치 스크린의 표면을 따라 이동하는 동작을 식별하여, 상기 입력 매체의 이동에 대응하여 상기 상위 레이어 객체가 상기 터치 스크린에서 이동하도록 제어하는 제어부를 포함하는 것을 특징으로 한다. In order to accomplish the above object, the portable terminal according to the present invention generates different touch input signals according to the proximity touch or direct touch operation of the input medium, displays a predetermined lower layer object, A touch screen for displaying at least a part of an upper layer object on an upper part of the object, and an operation for moving along the surface of the touch screen while the input medium is touched with the upper layer object, And controlling the upper layer object to move on the touch screen in response to movement of the upper layer object.

이에 따라, 상기 휴대 단말기의 터치 스크린에 소정의 하위 레이어 객체와 상위 레이어 객체가 다층 구조로 형성된 상태에서 입력 매체의 근접 터치 동작에 특화된 사용자 명령을 입력할 수 있도록 함으로써, 사용자 편의적이면서도 다양한 그래픽 사용자 인터페이스를 제공할 수 있다. Accordingly, it is possible to input a user command specific to the proximity touch operation of the input medium in a state in which the predetermined lower layer object and the upper layer object are formed in a multi-layer structure on the touch screen of the portable terminal, Can be provided.

또한, 상기 제어부는, 상기 입력 매체가 상기 하위 레이어 객체 또는 상기 상위 레이어 객체를 직접 터치한 상태에서 상기 터치 스크린의 표면을 따라 이동하는 동작을 식별하여, 상기 입력 매체의 이동에 따라 상기 하위 레이어 객체 및 상기 상위 레이어 객체 중 적어도 하나를 상기 터치스크린 상에서 이동하도록 제어하는 것이 바람직하다. In addition, the controller may identify an operation of moving the input medium along a surface of the touch screen in a state that the input layer directly touches the lower layer object or the upper layer object, And controlling at least one of the upper layer objects to move on the touch screen.

이에 따라, 상기 휴대 단말기의 터치 스크린에 소정의 하위 레이어 객체와 상위 레이어 객체가 다층 구조로 형성된 상태에서 입력 매체의 직접 터치 동작에 특화된 사용자 명령을 입력할 수 있도록 함으로써, 사용자 편의적이면서도 다양한 그래픽 사용자 인터페이스 환경을 제공할 수 있다. Accordingly, it is possible to input a user command specific to a direct touch operation of an input medium in a state where a predetermined lower layer object and an upper layer object are formed in a multi-layer structure on the touch screen of the portable terminal, Environment can be provided.

또한, 상기 제어부는, 상기 상위 레이어 객체의 일정 위치가 상기 터치스크린의 가시 영역을 벗어나면, 상기 상위 레이어 객체를 상기 터치 스크린의 가시 영역에서 제거하는 것이 바람직하다. The controller may remove the upper layer object from the visible region of the touch screen when a predetermined position of the upper layer object is out of the visible region of the touch screen.

이에 따라, 상기 상위 레이어 객체가 광고 등의 팝업창인 경우 사용자가 용이하게 팝업창을 제거할 수 있는 이점이 있다. Accordingly, when the upper layer object is a pop-up window such as an advertisement, the user can easily remove the pop-up window.

또한, 상기 제어부는, 상기 상위 레이어 객체의 일정 위치가 상기 터치스크린의 가시 영역을 벗어나면, 상기 터치 스크린에 상기 상위 레이어 객체의 제거 여부에 관한 사용자 명령을 입력받기 위한 사용자 명령 입력창을 디스플레이하는 것이 바람직하다. The controller displays a user command input window for receiving a user command on whether to remove the upper layer object on the touch screen when a certain position of the upper layer object is out of the visible range of the touch screen .

이에 따라, 상기 상위 레이어 객체의 제거 전에 사용자로 하여금 제거 여부를 재확인할 기회를 부여함으로써, 사용자 명령의 오입력에 따른 정보 손실을 방지할 수 있다. Accordingly, it is possible to prevent the information loss due to mis-input of the user command by giving the user a chance to re-confirm whether or not to remove the upper layer object.

또한, 상기 제어부는, 상기 입력 매체가 상기 하위 레이어 객체를 일정 시간 이상 근접 터치하는 동작을 식별하여, 상기 하위 레이어 객체를 상기 상위 레이어 객체 상부에 디스플레이하는 것이 바람직하다. Preferably, the controller identifies an operation of the input medium to touch the lower layer object for a predetermined time or longer, and displays the lower layer object on the upper layer object.

이에 따라, 당초 하위 레이어에 디스플레이되어 있던 객체를 상위 레이어 객체로 변경한 후, 본 발명에 따라 입력 매체의 근접 터치 동작에 따른 사용자 명령을 실행시킬 수 있다. Accordingly, after the object initially displayed in the lower layer is changed to an upper layer object, the user command according to the present invention can be executed according to the proximity touch operation of the input medium.

또한, 상기 제어부는, 상기 입력 매체가 상기 상위 레이어 객체 또는 상기 하위 레이어 객체를 일정 시간 이상 근접 터치하는 경우 상기 입력 매체의 근접 터치 동작이 존재하는 것으로 판단하는 것이 바람직하다.Preferably, the control unit determines that the input medium has a proximity touch operation of the input medium when the input layer touches the upper layer object or the lower layer object for a predetermined time or more.

이와 같이, 입력 매체가 근접한 시간에 따라 근접 터치에 따른 사용자 명령을 입력할 수 있도록 함으로써, 사용자가 의도하지 않은 동작에 의하여 상기 휴대 단말기가 오동작되는 것을 방지할 수 있다.In this way, by allowing the input medium to input a user command according to the proximity touch at a close time, it is possible to prevent the portable terminal from malfunctioning due to unintended operation.

또한, 상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법은, 소정의 하위 레이어 객체가 디스플레이됨과 아울러 상기 하위 레이어 객체의 상부에 상위 레이어 객체의 적어도 일부가 겹쳐서 디스플레이된 터치 스크린에서, 입력 매체가 상기 상위 레이어 객체를 근접 터치하는 동작을 감지하는 제1 단계, 상기 입력 매체가 상기 터치 스크린을 근접 터치하는 시간을 측정하는 제2 단계, 및 상기 제2 단계에서 측정된 근접 터치 시간이 미리 정해진 시간보다 같거나 클 경우, 상기 입력 매체가 상기 상위 레이어 객체를 근접 터치한 상태에서 상기 터치 스크린의 표면을 따라 이동하는 동작을 식별하여, 상기 입력 매체의 이동에 대응하여 상기 상위 레이어 객체를 상기 터치 스 크린에서 이동하도록 디스플레이하는 제3 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of providing a graphical user interface using a portable terminal, the method comprising: displaying a predetermined lower layer object and superimposing at least a part of an upper layer object on the lower layer object; A second step of detecting, in a displayed touch screen, an operation in which an input medium touches the upper layer object in close proximity, a second step of measuring a time when the input medium touches the touch screen in a near- When the measured proximity touch time is equal to or greater than a predetermined time, the input medium identifies an operation of moving along the surface of the touch screen while the upper layer object is touched, The upper layer object is moved in the touch screen Characterized in that it comprises a third step of locking the display.

이에 따라, 상기 입력 매체가 상기 휴대 단말기의 터치 스크린에 디스플레이된 소정의 하위 레이어 객체 또는 상위 레이어 객체를 터치하는 동작에 따라 다양한 그래픽 사용자 인터페이스를 제공할 수 있다. Accordingly, the input medium may provide various graphic user interfaces according to an operation of touching a predetermined lower layer object or an upper layer object displayed on the touch screen of the portable terminal.

상기와 같이 구성되는 본 발명에 관련된 휴대 단말기 및 이를 이용한 그래픽 사용자 인터페이스 제공방법에 따르면, 휴대 단말기의 터치 스크린에 소정의 하위 레이어 객체와 상위 레이어 객체가 다층 구조로 형성된 상태에서, 입력 매체의 근접 터치 동작 또는 직접 터치 동작에 따라 다양한 사용자 명령을 입력할 수 있다. 이에 따라, 상기 휴대 단말기에 실행되고 있는 기능에 맞추어 사용자 편의적이면서도 다양한 그래픽 사용자 인터페이스를 제공할 수 있는 이점이 있다. According to the portable terminal and the method for providing a graphical user interface using the portable terminal according to the present invention, when a predetermined lower layer object and an upper layer object are formed in a multi-layer structure on a touch screen of the portable terminal, Various user commands can be input according to operation or direct touch operation. Accordingly, there is an advantage in that a variety of graphical user interfaces can be provided in a user-friendly manner in accordance with functions executed in the portable terminal.

본 명세서에서 기술되는 휴대 단말기는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 등이 있다.The portable terminal described in this specification includes a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and a navigation system.

이하, 본 발명과 관련된 휴대 단말기 및 이를 이용한 화면 제어 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, a mobile terminal and a screen control method using the same according to the present invention will be described in detail with reference to the drawings.

도 1을 참조하여, 본 발명과 관련된 휴대 단말기를 기능에 따른 구성요소 관점에서 살펴보겠다.Referring to FIG. 1, a mobile terminal according to the present invention will be described in terms of components according to functions.

도 1은 본 발명의 일 실시예와 관련된 휴대 단말기의 블록 구성도(block diagram)이다. 1 is a block diagram of a portable terminal according to an embodiment of the present invention.

도시된 휴대 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 조작부(130), 센싱부(140), 출력부(150), 저장부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 상기 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있음을 유념해야 한다.The portable terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, an operation unit 130, a sensing unit 140, an output unit 150, a storage unit 160, An interface unit 170, a control unit 180, a power supply unit 190, and the like. It should be noted that when the components are implemented in a practical application, two or more components may be merged into one component, or one component may be subdivided into two or more components as necessary.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 GPS 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114 and a GPS module 115.

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버(미 도시)로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미 할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server (not shown) through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

한편, 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.Meanwhile, the broadcast related information may be provided through a mobile communication network, and in this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다.The broadcast receiving module 111 receives broadcasting signals using various broadcasting systems. In particular, the broadcasting receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S) Only Digital Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 is configured to be suitable for all broadcasting systems that provide broadcasting signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 저장부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the storage unit 160.

또한, 이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서 버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. Further, the mobile communication module 112 transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 내장되거나 외장될 수 있다.The wireless Internet module 113 is a module for wireless Internet access, and the wireless Internet module 113 can be built in or externally.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

또한, GPS(Global Position System) 모듈(115)은 복수 개의 인공위성으로부터 항법 정보를 수신한다.In addition, the GPS (Global Position System) module 115 receives navigation information from a plurality of satellites.

한편, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라 모듈(121)과 마이크 모듈(122) 등이 포함될 수 있다. 카메라 모듈(121)은 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이 모듈(151)에 표시될 수 있다.The A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal. The audio / video input unit 120 may include a camera module 121 and a microphone module 122. The camera module 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. Then, the processed image frame can be displayed on the display module 151.

카메라 모듈(121)에서 처리된 화상 프레임은 저장부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라 모듈(121)은 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera module 121 may be stored in the storage unit 160 or transmitted to the outside through the wireless communication unit 110. [ The camera module 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크 모듈(122)은 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크 로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크 모듈(122)은 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone module 122 receives an external sound signal by a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. The microphone module 122 may be implemented with various noise reduction algorithms for eliminating noise generated in receiving an external sound signal.

조작부(130)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 조작부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이 모듈(151)과 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.The operation unit 130 generates key input data that the user inputs for controlling the operation of the terminal. The operation unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like. Particularly, when the touch pad has a mutual layer structure with the display module 151 described later, it can be called a touch screen.

센싱부(140)는 휴대 단말기(100)의 개폐 상태, 휴대 단말기(100)의 위치, 사용자 접촉 유무 등과 같이 휴대 단말기(100)의 현 상태를 감지하여 휴대 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 휴대 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당한다.The sensing unit 140 senses the current state of the portable terminal 100 such as the open / close state of the portable terminal 100, the position of the portable terminal 100, Thereby generating a sensing signal. For example, when the portable terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. Also, it is responsible for a sensing function related to whether or not the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

인터페이스부(170)는 휴대 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 카드 소켓(예를 들어, 메모리 카드(Memory card), SIM/UIM card), 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 휴대 단말기(100) 내부의 각 구성 요소에 전달하거나 휴대 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.The interface unit 170 serves as an interface with all the external devices connected to the portable terminal 100. For example, it may be a wired / wireless headset, an external charger, a wired / wireless data port, a card socket (e.g. a memory card, a SIM / UIM card), an audio I / I / O (input / output) terminals, and earphones. The interface unit 170 receives data from an external device or receives power from the external device, transfers the data to each component in the portable terminal 100, or transmits data in the portable terminal 100 to an external device.

출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이 모듈(151)과 음향 출력 모듈(152), 알람 출력 모듈(153) 등이 포함될 수 있다. The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 150 may include a display module 151, an audio output module 152, an alarm output module 153, and the like.

디스플레이 모듈(151)은 휴대 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 휴대 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 휴대 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display module 151 displays and outputs information processed by the portable terminal 100. For example, when the portable terminal 100 is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the portable terminal 100 is in the video communication mode or the photographing mode, the captured image and / or the received image or UI and GUI are displayed.

한편, 전술한 바와 같이, 디스플레이 모듈(151)과 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이 모듈(151)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이 모듈(151)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 휴대 단말기(100)의 구현 형태에 따라 디스플레이 모듈(151)이 2개 이상 존재할 수도 있다. 예를 들어, 휴대 단말기(100)에 외부 디스플레이 모듈(미도시)과 내부 디스플레이 모듈(미도시)이 동시 에 구비될 수 있다.Meanwhile, as described above, when the display module 151 and the touch pad have a mutual layer structure to constitute a touch screen, the display module 151 can be used as an input device in addition to the output device. The display module 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display). Also, there may be two or more display modules 151 according to the implementation mode of the portable terminal 100. [ For example, the portable terminal 100 may include an external display module (not shown) and an internal display module (not shown) at the same time.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 저장부(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 휴대 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 outputs audio data received from the wireless communication unit 110 or stored in the storage unit 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, and the like) performed in the portable terminal 100. The sound output module 152 may include a speaker, a buzzer, and the like.

알람 출력 모듈(153)은 휴대 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 휴대 단말기(100)에서 발생되는 이벤트의 예로는 전화 통화를 요청하는 호 신호 수신, 메시지 수신, 키 신호 입력, 미리 정해진 시간을 알리는 알람 등이 있다. 알람 출력 모듈(153)은 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 알람 출력 모듈(153)은 진동을 출력할 수 있다. 또는, 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 알람 출력 모듈(153)은 진동을 출력할 수 있다. 상기와 같은 진동 출력을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이 모듈(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm output module 153 outputs a signal for notifying the occurrence of an event of the portable terminal 100. Examples of events generated in the portable terminal 100 include a call signal request for requesting a telephone call, a message reception, a key signal input, and an alarm for notifying a predetermined time. The alarm output module 153 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, it is possible to output a signal in a vibration mode. When a call signal is received or a message is received, the alarm output module 153 may output a vibration to inform it. Alternatively, when the key signal is input, the alarm output module 153 can output the vibration as the feedback to the key signal input. The user can recognize the occurrence of an event through the vibration output as described above. Of course, a signal for notifying the occurrence of an event may also be output through the display module 151 or the sound output module 152.

저장부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임 시 저장을 위한 기능을 수행할 수도 있다. The storage unit 160 may store a program for processing and controlling the controller 180 and may store a program for temporarily storing input / output data (e.g., a phone book, a message, a still image, Function may be performed.

저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 휴대 단말기(100)는 인터넷(internet)상에서 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다. The storage unit 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) A RAM, and a ROM. In addition, the portable terminal 100 may operate a web storage that performs a storage function of the storage unit 150 on the Internet.

그리고 제어부(180)는 통상적으로 휴대 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. 멀티미디어 재생 모듈(181)은 제어부(180) 내에 하드웨어로 구성될 수도 있고, 제어부(180)와 별도로 소프트웨어로 구성될 수도 있다.The control unit 180 typically controls the overall operation of the portable terminal 100. For example, voice communication, data communication, video communication, and the like. In addition, the control unit 180 may include a multimedia playback module 181 for multimedia playback. The multimedia playback module 181 may be configured in hardware in the controller 180 or separately from software in the controller 180. [

또한, 상기 제어부(180)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 터치 스크린을 근접 터치 또는 직접 터치하는 동작을 식별하여, 상기 터치 스크린에 서로 다른 그래픽 사용자 인터페이스(GUI)를 제공한다. 예를 들어, 상기 제어부(180)는, 상기 터치 스크린상에 소정의 하위 레이어 객체가 디스플레이됨과 아울러 상기 하위 레이어 객체의 상부에 상위 레이어 객체의 적어도 일부가 겹쳐서 디스플레이된 상태에서, 상기 입력 매체가 상기 상위 레이어 객체를 근접 터치한 후 상기 터치 스크린의 표면을 따라 이동하는 동작을 식별하여, 상기 입력 매체의 이동에 대응하여 상기 상위 레이어 객체가 상기 터치 스크린에서 이동하도록 제어할 수 있다. 또한 상기 제어부(180)는 상기 터치 스크린 상에 디스플레이된 상기 하위 레이어 객체 및 상위 레이어 객체를 활성화시킴으로써, 상기 입력 매체가 상기 하위 레이어 객체 및 상기 상위 레이어 객체를 근접 터치 또는 직접 터치하는 동작을 식별할 수 있다. 상기 제어부(180)의 세부 기능에 대해서는 이하에서 더욱 상세히 설명될 것이다.In addition, the control unit 180 identifies an operation of touching or directly touching the touch screen by an input medium (e.g., a user's finger), and provides different GUIs to the touch screen . For example, the controller 180 displays a predetermined lower layer object on the touch screen, displays at least a part of an upper layer object on the lower layer object, The upper layer object may be closely touched and then moved along the surface of the touch screen to identify the movement of the upper layer object so that the upper layer object moves on the touch screen. Also, the controller 180 activates the lower layer object and the upper layer object displayed on the touch screen, thereby identifying an operation of the input medium to perform the proximity touch or direct touch of the lower layer object and the upper layer object . The detailed function of the controller 180 will be described in more detail below.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

이상에서는 본 발명과 관련된 휴대 단말기를 기능에 따른 구성요소 관점에서 살펴보았다. 이하에서는 도 2 및 도 3을 더욱 참조하여, 본 발명과 관련된 휴대 단말기를 외형에 따른 구성요소 관점에서 더욱 살펴보겠다. 이하에서는 설명의 간명함을 위해 폴더 타입, 바 타입, 스윙타입, 슬라이더 타입, 등과 같은 여러 타입의 휴대 단말기들 중에서 슬라이더 타입의 휴대 단말기를 예로 들어 설명한다. 따라서 본 발명은 슬라이더 타입의 휴대 단말기에 한정되는 것은 아니고 상기 전술한 타입을 포함한 모든 타입의 휴대 단말기에 적용될 수 있다. In the foregoing, the mobile terminal related to the present invention has been examined from the viewpoint of components according to functions. Hereinafter, the portable terminal related to the present invention will be further described with reference to FIGS. 2 and 3 in terms of components according to the external form. Hereinafter, for simplicity of explanation, a slider type portable terminal will be exemplified among various types of portable terminals such as a folder type, a bar type, a swing type, a slider type, and the like. Therefore, the present invention is not limited to the slider-type portable terminal but can be applied to all types of portable terminals including the above-mentioned type.

도 2는 본 발명과 관련된 휴대 단말기의 일 예를 전면에서 바라본 사시도이다. 2 is a perspective view of a portable terminal according to an embodiment of the present invention.

본 발명의 휴대 단말기(100)는 제1바디(100A)와, 상기 제1바디(100A)에 적어도 일 방향을 따라 슬라이딩 가능하게 구성된 제2바디(100B)를 포함한다. The portable terminal 100 of the present invention includes a first body 100A and a second body 100B configured to be slidable along at least one direction on the first body 100A.

제1바디(100A)가 제2바디(100B)와 중첩되게 배치된 상태를 닫힌 상태(closed configuration)라 칭할 수 있으며, 본 도면에 도시된 바와 같이 제1바디(100A)가 제2바디(100B)의 적어도 일 부분을 노출한 상태를 열린 상태(open configuration)라 칭할 수 있다. The state where the first body 100A is disposed in a state of being overlapped with the second body 100B may be referred to as a closed configuration and the first body 100A may be referred to as a second body 100B ) May be referred to as an open configuration.

상기 휴대 단말기(100)는 닫힌 상태에서 주로 대기 모드로 작동하지만 사용자의 조작에 의해 대기 모드가 해제되기도 한다. 그리고, 상기 휴대 단말기(100)는 열린 상태에서 주로 통화 모드 등으로 작동하지만 사용자의 조작 또는 소정 시간의 경과에 의해 대기 모드로 전환되기도 한다.The portable terminal 100 operates mainly in the standby mode in the closed state, but the standby mode is also released by the operation of the user. Also, the mobile terminal 100 operates mainly in a call mode in an open state, but is also switched to a standby mode after an operation of a user or a predetermined time elapses.

상기 제1바디(100A)의 외관을 이루는 케이스(케이싱, 하우징, 커버 등)는 제 1 프론트 케이스(100A-1)와 제 1 리어 케이스(100A-2)에 의해 형성된다. 상기 제 1 프론트 케이스(100A-1)와 제 1 리어 케이스(100A-2)에 의해 형성된 공간에는 각종 전자부품들이 내장된다. 제 1 프론트 케이스(100A-1)와 제 1 리어 케이스(100A-2) 사이에는 적어도 하나의 중간 케이스들이 추가로 배치될 수도 있다. The casing (casing, housing, cover, etc.) constituting the outer appearance of the first body 100A is formed by the first front case 100A-1 and the first rear case 100A-2. Various electronic components are embedded in the space formed by the first front case 100A-1 and the first rear case 100A-2. At least one intermediate case may be additionally disposed between the first front case 100A-1 and the first rear case 100A-2.

상기 케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injection molding of a synthetic resin or may be formed of a metal material such as stainless steel (STS) or titanium (Ti).

제1 바디(100A), 구체적으로 제 1 프론트 케이스(100A-1)에는 디스플레이모듈(151), 제 1 음향출력모듈(152-1), 제1 카메라모듈(121-1) 또는 제1 조작부(130-1)가 배치될 수 있다. The display module 151, the first sound output module 152-1, the first camera module 121-1, or the first operation unit (not shown) is connected to the first body 100A, specifically, the first front case 100A- 130-1 may be disposed.

상기 디스플레이모듈(151)은 정보를 시각적으로 표현하는 LCD(liquid crystal display), OLED(Organic Light Emitting Diodes) 등을 포함한다. The display module 151 includes a liquid crystal display (LCD), organic light emitting diodes (OLED), and the like, which visually represent information.

그리고 상기 디스플레이모듈(151)에는 터치패드가 레이어 구조로 중첩됨으로써, 상기 디스플레이모듈(151)이 터치 스크린으로 동작하여 사용자의 터치에 의한 정보의 입력 또한 가능하게 할 수도 있다. In addition, the display module 151 is overlapped with the touch pad in a layer structure, so that the display module 151 may operate as a touch screen to enable information input by a user's touch.

상기 제 1 음향출력모듈(152-1)은 리시버 또는 스피커의 형태로 구현될 수 있다. The first sound output module 152-1 may be implemented in the form of a receiver or a speaker.

상기 제1카메라모듈(121-1)은 사용자 등에 대한 이미지 또는 동영상을 촬영하기에 적절하도록 구현될 수 있다. The first camera module 121-1 may be adapted to photograph an image or a moving image of a user.

제1바디(100A)와 마찬가지로, 제 2 바디(100B)의 외관을 이루는 케이스는 제 2 프론트 케이스(100B-1)와 제 2 리어 케이스(100B-2)에 의해 형성된다.Like the first body 100A, the case constituting the outer appearance of the second body 100B is formed by the second front case 100B-1 and the second rear case 100B-2.

제2 바디(100B), 구체적으로 제 2 프론트 케이스(100B-1)의 전면(front face)에는 제2 조작부(130-2)가 배치될 수 있다.The second operation unit 130-2 may be disposed on the front face of the second body 100B, specifically, the second front case 100B-1.

제 2 프론트 케이스(100B-1) 또는 제 2 리어 케이스(100B-2)) 중 적어도 하나에는 제3 조작부(130-3), 마이크모듈(122), 인터페이스부(170)가 배치될 수 있다. The third operating unit 130-3, the microphone module 122, and the interface unit 170 may be disposed on at least one of the first front case 100B-1 and the second rear case 100B-2.

상기 제1 내지 제3 조작부(130-1, 130-2, 130-3)는 조작부(manipulating portion)(130)라 통칭될 수 있으며, 사용자가 촉각적인 느낌을 주면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. The first to third operating portions 130-1, 130-2, and 130-3 may be collectively referred to as a manipulating portion 130. In a tactile manner, Any way can be employed.

예를 들어, 상기 조작부(130)는 사용자의 푸시 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 돔 스위치 또는 터치 패드로 구현되거나, 키를 회전 시키는 휠 또는 조그 방식이나 조이스틱과 같이 조작하는 방식 등으로도 구현될 수 있다. For example, the operation unit 130 may be embodied as a dome switch or a touch pad capable of receiving a command or information by a user's push or touch operation, or may be a wheel, a jog type, a joystick, Or the like.

기능적인 면에서, 제1 조작부(130-1)는 시작, 종료, 스크롤 등과 같은 명령을 입력하기 위한 것이고, 제2 조작부(130-2)는 숫자 또는 문자, 심볼(symbol) 등을 입력하기 위한 것이다. In terms of functions, the first operation unit 130-1 is for inputting commands such as start, end, and scroll, and the second operation unit 130-2 is for inputting numbers, characters, symbols, will be.

또한, 제3 조작부(130-3)는 상기 휴대단말기 내의 특수한 기능을 활성화하기 위한 핫 키(hot-key)로서 작동할 수 있다.Also, the third operating unit 130-3 may operate as a hot-key for activating a special function in the portable terminal.

상기 마이크모듈(122)은 사용자의 음성, 기타 소리 등을 입력 받기에 적절한 형태로 구현될 수 있다.The microphone module 122 may be implemented in a form suitable for receiving voice, sound, etc. of the user.

상기 인터페이스부(170)는 본 발명과 관련된 휴대 단말기(100)가 외부 기기와 데이터 교환 등을 할 수 있게 하는 통로가 된다. 예를 들어, 상기 인터페이스부(170)는 유선 또는 무선으로, 이어폰과 연결하기 위한 접속단자, 근거리 통신을 위한 포트(예를 들어, 적외선 포트(IrDA port), 블루투스 포트(Bluetooth port), 무선 랜 포트(wireless Lan port) 등), 또는 상기 휴대 단말기(100) 내부의 각 구성 요소에 전원을 공급하기 위한 전원공급 단자들 중 적어도 하나일 수 있다. The interface unit 170 is a channel through which the portable terminal 100 related to the present invention can exchange data with an external device. For example, the interface unit 170 may be a wired or wireless connection terminal for connecting to an earphone, a port for short range communication (e.g., an IrDA port, a Bluetooth port, A wireless LAN port, or the like), or power supply terminals for supplying power to each component in the portable terminal 100.

상기 인터페이스부(170)는 SIM(subscriber identification module) 또는 UIM(user identity module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 카드 소켓일 수도 있다. The interface unit 170 may be a card socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM) or a memory card for storing information.

제 2 리어 케이스(100B-2) 측에는 상기 휴대 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착된다. A power supply unit 190 for supplying power to the portable terminal 100 is mounted on the second rear case 100B-2.

상기 전원공급부(190)는, 예를 들어 충전 가능한 배터리로서 충전 등을 위하여 착탈 가능하게 결합될 수 있다.The power supply unit 190 may be detachably coupled to a rechargeable battery, for example, for charging.

도 3는 도 2의 휴대 단말기의 후면 사시도이다. 3 is a rear perspective view of the portable terminal of FIG.

도 3을 참조하면, 제2바디(100B)의 제 2 리어 케이스(100B-2)의 후면에는 제2 카메라모듈(121-2)이 추가로 장착될 수 있다. 상기 제2 카메라모듈(121-2)은 제1 카메라모듈(121-1, 도 1 참조)과 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라모듈과 서로 다른 화소를 가질 수 있다. Referring to FIG. 3, a second camera module 121-2 may be further mounted on the rear surface of the second rear case 100B-2 of the second body 100B. The second camera module 121-2 has a photographing direction substantially opposite to that of the first camera module 121-1 (see FIG. 1), and may have different pixels from the first camera module 121-1 (see FIG. 1).

예를 들어, 제1 카메라모듈(121-1)은 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저화소를 가지며, 제2 카메라모듈(121-2)은 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다.For example, the first camera module 121-1 has low pixels so that it is easy to capture a face of a user in the case of a video call or the like and transmit the face to the other party, and the second camera module 121-2 has a general object It is often desirable to have a high pixel.

제2 카메라모듈(121-2)에 인접하게는 플래쉬(121-3)와 거울(121-4)이 추가로 배치될 수 있다. 상기 플래쉬(121-3)는 제2 카메라모듈(121-2)로 피사체를 촬영하는 경우에 상기 피사체를 향해 빛을 비추게 된다. 상기 거울(121-4)은 사용자가 제2 카메라모듈(121-2)을 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 121-3 and a mirror 121-4 may be further disposed adjacent to the second camera module 121-2. The flash 121-3 shines light toward the subject when the subject is photographed by the second camera module 121-2. The mirror 121-4 allows the user to illuminate the user's face or the like when the user intends to take a picture of himself / herself (self-photographing) using the second camera module 121-2.

제 2 리어 케이스(100B-2)에는 제2 음향출력모듈(152-2)이 추가로 배치될 수도 있다. And the second sound output module 152-2 may be additionally disposed in the second rear case 100B-2.

상기 제2 음향출력모듈(152-2)는 제1 음향출력모듈(152-1, 도2 참조)와 함께 스테레오 기능을 구현할 수 있으며, 스피커폰 모드로 통화를 위하여 사용될 수도 있다. The second sound output module 152-2 may implement a stereo function together with the first sound output module 152-1 (see FIG. 2), and may be used for a call in a speakerphone mode.

또한, 제 2 리어 케이스(100B-2)의 일 측에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(111-1)가 배치될 수 있다. 상기 안테나(111-1)는 제2바디(100B)(2)에서 인출 가능하게 설치될 수 있다.On one side of the second rear case 100B-2, a broadcast signal reception antenna 111-1 may be arranged in addition to an antenna for communication. The antenna 111-1 may be installed to be able to be drawn out from the second body 100B.

제1바디(100A)의 제 1 리어 케이스(100A-2) 측에는 제1바디(100A)와 제2바디(100B)를 슬라이딩 가능하게 결합하는 슬라이드 모듈(100C)의 일 부분이 배치된다. A part of the slide module 100C that slidably connects the first body 100A and the second body 100B is disposed on the first rear case 100A-2 side of the first body 100A.

슬라이드 모듈(100C)의 다른 부분은 제2 바디(100B)의 제 2 프론트 케이스(100B-1) 측에 배치되어, 본 도면에서와 같이 외부로 드러나지 않는 형태일 수 있다. The other part of the slide module 100C may be disposed on the second front case 100B-1 side of the second body 100B and may not be exposed to the outside as in this figure.

이상에서는 제2 카메라모듈(121-2)) 등이 제2바디(100B)에 배치되는 것으로 설명하였으나, 반드시 그에 제한되는 것은 아니다.The second camera module 121-2 and the like are disposed on the second body 100B, the present invention is not limited thereto.

예를 들어, 제2 카메라모듈(121-2) 등과 같이 제 2 리어 케이스(100B-2)에 배치되는 것으로 설명한 구성들(111-1, 121-2 내지 121-3, 152-2) 중 적어도 하나 이상이 제1바디(100A), 주로는 제 1 리어 케이스(100A-2)에 장착되는 것도 가능하다. 그러한 경우라면, 상기 닫힌 상태에서 제 1 리어케이스(100A-2)에 배치되는 구성(들)이 제2바디(100B)에 의해 보호되는 이점이 있다. 나아가, 제2 카메라모듈(121-2)이 별도로 구비되지 않더라도, 제1 카메라모듈(121-1)가 회전 가능하게 형성되어 제2 카메라모듈(121-2)의 촬영 방향까지 촬영이 가능하도록 구성될 수도 있다. For example, at least two of the configurations 111-1, 121-2 to 121-3, and 152-2 described as being arranged in the second rear case 100B-2, such as the second camera module 121-2, It is also possible that at least one is mounted on the first body 100A, mainly the first rear case 100A-2. In such a case, there is an advantage that the configuration (s) arranged in the first rear case 100A-2 in the closed state is protected by the second body 100B. Further, even if the second camera module 121-2 is not separately provided, the first camera module 121-1 is rotatably formed so that the camera module 121-2 can be photographed up to the photographing direction .

상기와 같이 설명된 휴대 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described portable terminal is not limited to the configuration and method of the above-described embodiments, but the embodiments may be configured such that all or some of the embodiments are selectively combined so that various modifications can be made. It is possible.

도 4는 본 발명과 관련된 터치스크린의 구조를 나타낸다.4 shows a structure of a touch screen related to the present invention.

도 4에 도시된 바와 같이, 본 발명에 따른 디스플레이 모듈(151)은 터치패드(400)와 상호 레이어 구조를 이룸으로써 터치 스크린(500)으로 구성된다. As shown in FIG. 4, the display module 151 according to the present invention includes a touch screen 500 by forming a mutual layer structure with the touch pad 400.

도 4에 도시된, 상기 터치패드(400)는 ITO(Indium Tin Oxide)와 같은 투명 도전성 물질로 이루어지는 4각형의 도전막(411)과 상기 도전막(411)의 각 모서리에 형성된 금속 전극들(412-1 내지 412-4)로 이루어진다. 상기 도전막(411) 상에는 보호막(420)이 형성될 수 있다.4, the touch pad 400 includes a rectangular conductive film 411 formed of a transparent conductive material such as ITO (Indium Tin Oxide), and metal electrodes (not shown) formed at each corner of the conductive film 411 412-1 to 412-4. A protective layer 420 may be formed on the conductive layer 411.

상기 터치패드(400)는 정전 용량 감지 방식(Capacitive sensing type)의 위치 검출 장치로서, 송신측 금속 전극들(T: 412-1, 412-4)에 인가된 교류 전압에 의하여 상기 송신측 금속 전극들(T: 412-1, 412-4)과 수신측 금속 전극들(R: 412-2, 412-3) 사이에 전기력선(Electric Field Lines)을 형성한다. 상기 형성된 전기력선은 상기 보호막(420)을 통하여 상기 터치 패널(400)에 외부에 연장된다. 이에 따라, 입력 매체(예를 들어, 사용자의 손가락)가 상기 터치패드(400)에 근접하거나 상기 터치패드(400)를 직접 터치함으로써 상기 전기력선을 일부 차단시킬 경우 상기 수신측 금속 전극들(R: 412-2, 412-3)로 흐르는 전류의 위상 및 크기에 변화가 발생한다. 이는 인체가 지면에 대하여 수 pF의 정전 용량을 갖기 때문에, 사용자가 상기 터치패널(400)에 손가락을 근접시키거나 터치할 경우 상기 터치패널(400) 상에 형성된 전기력선을 왜곡시키기 때문이다. The touch pad 400 is a capacitance sensing type position detecting device. The touch pad 400 is a position detecting device of a capacitive sensing type, Electric field lines are formed between the reception side metal electrodes (R) 412-1 and 412-4 and the reception side metal electrodes (R) 412-2 and 412-3. The formed line of electric force extends to the outside of the touch panel 400 through the protective film 420. Accordingly, when the input line (for example, the user's finger) touches the touch pad 400 or touches the touch pad 400 to partially cut off the line of electric force, the reception-side metal electrodes R: 412-2, and 412-3, respectively. This is because the human body has a capacitance of several pF with respect to the ground, and therefore, when the user touches or touches the touch panel 400 with a finger, the electric force line formed on the touch panel 400 is distorted.

그리고, 휴대 단말기(100) 내부에 구성된 프로세서들(미도시)은 상기 입력 매체의 터치 동작에 따른 수신측 금속 전극들(R: 412-2, 412-3)의 전류 변화를 이용하여 상기 입력 매체가 근접한 거리와, 상기 터치가 발생한 위치를 감지할 수 있게 된다. Processors (not shown) configured in the portable terminal 100 are connected to the input mediums R, 412-2, and 412-3, It is possible to detect a distance between the touch point and the position where the touch occurs.

또한, 상기 입력 매체에는 사용자의 손가락뿐만 아니라, 상기 터치패드(400) 상에 형성된 전기력선을 왜곡시킴으로써 상기 휴대 단말기(100)가 터치 입력을 인식할 수 있는 물체라면 모두 포함된다. The input medium includes not only the user's finger but also any object that can recognize the touch input by distorting the electric force line formed on the touch pad 400.

도 5는 상기 도 4의 터치스크린을 이용한 입력 매체의 근접 거리를 검출하는 원리를 설명하는 도면이다. 5 is a diagram for explaining the principle of detecting a proximity distance of an input medium using the touch screen of FIG.

도 5에 도시된 바와 같이, 투명 도전막(411)에 형성된 금속 전극들(412-1 내지 412-4) 중 송신측 금속 전극(412-1)에 교류 전압(430)이 인가됨으로써, 상기 송신측 금속 전극(412-1)과 수신측 금속 전극(412-2) 사이에 전기력선들(501 내지 503)이 형성된다. 상기 전기력선들(501 내지 503)은 터치스크린(500)의 수직 상방향(즉, z방향)으로 연장되어 형성된다. 5, the AC voltage 430 is applied to the transmission-side metal electrode 412-1 of the metal electrodes 412-1 to 412-4 formed on the transparent conductive film 411, Electric force lines 501 to 503 are formed between the side metal electrode 412-1 and the reception side metal electrode 412-2. The electric lines of force 501 to 503 are formed extending in the vertical direction (i.e., the z direction) of the touch screen 500.

그리고, 사용자의 손가락(510)이 상기 터치스크린(500)에 근접한 거리에 따라, 상기 손가락(510)이 차단하는 전기력선들(501 내지 503)의 양이 달라지게 된다. 즉, 상기 손가락(510)이 상기 터치스크린(500)에 가까워질수록 상기 손가락(510)이 상기 전기력선들(501 내지 503)에 미치는 영향은 증가하게 된다. The amount of electric force lines 501 to 503 blocked by the finger 510 varies according to the distance of the user's finger 510 to the touch screen 500. [ That is, as the finger 510 approaches the touch screen 500, the influence of the finger 510 on the electric force lines 501 to 503 increases.

이와 같이 손가락(510)에 의하여 전기력선들(501 내지 503)에 가해진 영향은 각각의 금속 전극(412-1, 412-2)에 연결된 전류 검출부(440-1, 440-2)에 인가되는 전류를 변화시키게 되고, 상기 전류 검출부(440-1, 440-2)는 상기 전류의 변화를 검출하여 아날로그-디지털 컨버터(ADC: Analog-Digital Converter)(450)로 제공한다. 그러면, 상기 아날로그-디지털 컨버터(ADC)(450)는 아날로그 신호 형태로 입력되는 전류의 변화량을 디지털 값으로 변환한 후, 터치 시간 측정부(460)로 제공한다. The influence exerted on the electric force lines 501 to 503 by the finger 510 in this way is the current applied to the current detecting portions 440-1 and 440-2 connected to the metal electrodes 412-1 and 412-2 And the current detectors 440-1 and 440-2 detect the change of the current and provide it to an analog-to-digital converter (ADC) 450. Then, the analog-to-digital converter (ADC) 450 converts the amount of change of the current input in the form of an analog signal into a digital value, and provides the digital value to the touch time measuring unit 460.

그러면, 상기 터치 시간 측정부(460)는 상기 아날로그-디지털 컨버터(ADC)(450)로부터 제공된 전류 변화량에 대한 정보로부터 상기 터치스크린(500)이 상기 손가락(510)이 근접하였음을 인식할 수 있는 터치 인식 유효 거리(즉, 도 5에서 'd1') 이내에 상기 손가락(510)이 머무른 시간을 측정한다. 이에 따라, 상기 터치 시간 측정부(460)은 미리 정해진 시간(예를 들어, 1초) 이상 상기 손가락(510)이 근접 터치 인식 유효 거리(즉, 도 5에서 'd1') 이내에 머무를 경우 본 발명에 따른 근접 터치 또는 직접 터치 동작을 수행하고 있는 것으로 인식할 수 있다. 반면에, 상기 터치 시간 측정부(460)는 상기 손가락(510)이 미리 정해진 시간(예를 들어, 1초) 보다 짧은 시간 동안 근접 터치 인식 유효 거리(즉, 도 5에서 'd1') 이내에 머무를 경우에는 본 발명에 따른 근접 터치 또는 직접 터치 동작을 수행하는 것이 아닌 것으로 판단할 수 있다. Then, the touch time measuring unit 460 may determine that the touch screen 500 recognizes that the finger 510 is in proximity from the information on the current change amount provided from the analog-digital converter (ADC) 450 And measures the time at which the finger 510 remains within the touch recognition effective distance (i.e., 'd1' in FIG. 5). Accordingly, when the finger 510 remains within the proximity touch recognition effective distance (i.e., 'd1' in FIG. 5) for a predetermined time (for example, one second) It is possible to recognize that the user is performing a proximity touch or a direct touch operation according to the present invention. On the other hand, the touch time measurement unit 460 determines whether the finger 510 remains within the proximity touch recognition effective distance (i.e., 'd1' in FIG. 5) for a time shorter than a predetermined time It can be determined that the near touch or the direct touch operation according to the present invention is not performed.

이와 같이, 상기 터치 시간 측정부(460)에 의해 상기 손가락(510)이 상기 터치 스크린(500)을 근접 터치 또는 직접 터치 동작에 따른 터치 입력이 있는 것으로 판단된 경우, 상기 터치 시간 측정부(460)는 상기 거리 검출부(470)에 터치 입력 발생 정보 및 전류 변화량에 대한 정보를 제공한다. If it is determined by the touch time measuring unit 460 that the finger 510 has a touch input in accordance with the proximity touch or the touch operation of the touch screen 500, the touch time measuring unit 460 Provides information on the touch input occurrence information and the amount of current change to the distance detector 470.

그러면, 상기 거리검출부(460)는 상기 제공된 전류 변화량에 대한 정보로부터 상기 손가락(510)과 상기 터치 스크린(500)간의 거리, 즉 상기 손가락(510)이 상기 터치 스크린(500)으로부터 수직 상방향(즉, z방향)으로 이격된 거리를 계산한다. The distance detecting unit 460 detects a distance between the finger 510 and the touch screen 500 based on the information on the amount of current change supplied from the touch screen 500, That is, in the z direction).

구체적으로, 상기 손가락(510)이 상기 터치패널(400)의 수직 상방향(즉, z방향)으로부터 d1(예를 들어, 30mm)보다 가깝고 d2(예를 들어, 20mm)보다 먼 거리에 위치한 경우(즉, d1~d2 사이에 위치한 경우), 상기 거리검출부(460)는 상기 손가락(510)이 상기 터치 스크린(500)이 외부 입력 매체의 터치 여부를 감지하기 시작하는 터치 인식 유효 거리 이내에 들어온 것으로 판단하여, 본 발명에 따른 근접 터치 동작에 대응하는 기능을 제공할 수 있다. 여기서, 근접 터치란 사용자 명령을 입력하기 위하여 입력 매체(예를 들어, 사용자의 손가락)가 상기 터치스크린(500)의 상기 터치 인식 유효 거리 이내에 위치한 상태를 말하며, 상기 근접 터치는 상기 입력 매체가 상기 터치스크린(500)을 직접 터치하지는 않는 것이라는 점에서 상기 입력 매체가 상기 터치 스크린(500)을 직접 터치하는 직접 터치 동작과 구분된 다.Specifically, when the finger 510 is located at a distance d1 (for example, 30 mm) from the vertical direction (that is, z direction) of the touch panel 400 and a distance f2 (for example, 20 mm) (I.e., located between d1 and d2), the distance detecting unit 460 detects that the finger 510 is within the touch recognition effective distance at which the touch screen 500 starts to detect whether or not the external input medium is touched It is possible to provide a function corresponding to the proximity touch operation according to the present invention. Here, the proximity touch refers to a state where an input medium (e.g., a user's finger) is positioned within the touch recognition effective distance of the touch screen 500 in order to input a user command, Since the touch screen 500 is not directly touched, the input medium is distinguished from the direct touch operation in which the touch screen 500 is directly touched.

또한, 상기 손가락(510)이 상기 터치 스크린(500)의 수직 상방향(즉, z방향)으로부터 d2(예를 들어, 20mm)보다 가깝고 d3(예를 들어, 10mm)보다 먼 거리에 위치한 경우(즉, d2~d3 사이에 위치한 경우), 상기 거리검출부(460)는 상기 손가락(510)이 상기 터치 스크린(500)에 상당히 근접한 것으로 판단할 수 있다.In addition, when the finger 510 is located at a distance d2 (for example, 20 mm) and distance d3 (for example, 10 mm) from the vertical direction (that is, z direction) of the touch screen 500 The distance detecting unit 460 may determine that the finger 510 is very close to the touch screen 500. In this case,

나아가, 상기 손가락(510)이 상기 터치 스크린(500)의 수직 상방향(즉, z방향)으로부터 d3(예를 들어, 10mm)보다 가까운 거리에 위치(즉, d3 이내에 위치한 경우)하거나 상기 손가락(510)이 상기 터치 스크린(500)의 표면을 직접 터치한 경우, 상기 거리검출부(460)는 상기 손가락(510)이 상기 터치 스크린(500)을 오차 범위 내에서 직접 터치한 것으로 판단한다.Further, if the finger 510 is located at a distance (i.e., located within d3) closer than d3 (for example, 10 mm) from the vertical upward direction (i.e., z direction) of the touch screen 500, 510 directly touches the surface of the touch screen 500, the distance detecting unit 460 determines that the finger 510 directly touches the touch screen 500 within an error range.

상기 도 5에서는, 상기 손가락(510)의 터치 동작을 상기 손가락(510)과 상기 터치 스크린(500)간의 거리에 따라 3단계로 구분하여 설명하고 있으나, 상기 터치 동작은 4단계 이상으로 더욱 정밀하게 구분될 수 있다. 5, the touch operation of the finger 510 is divided into three levels according to the distance between the finger 510 and the touch screen 500. However, the touch operation may be performed more precisely in four or more steps Can be distinguished.

다음으로, 위치 검출부(480)는 상기 전류 변화량에 대한 정보로부터 상기 손가락(510)이 지시하고 있는 상기 터치 스크린(500) 상의 위치, 즉 상기 터치 스크린(500) 상의 x 및 y방향의 수평 좌표를 계산한다. 상기 y방향은 도 5에 도시된 x 및 z 방향에 수직한 방향이다. Next, the position detector 480 calculates the position on the touch screen 500 indicated by the finger 510, that is, the horizontal coordinates in the x and y directions on the touch screen 500, from the information on the current change amount . The y direction is a direction perpendicular to the x and z directions shown in Fig.

이와 같이 측정된 상기 손가락(510)과 상기 터치 스크린(500)간의 이격된 수직 거리 및 상기 손가락(510)이 상기 터치패널(400) 상에 위치한 수평 좌표는 제어부(180)에 제공된다. 이에 따라, 상기 제어부(180)는 상기 수직 거리 및 수평 좌표 에 따라 사용자의 명령을 판단하고, 상기 사용자 명령에 따른 제어 동작을 수행함과 아울러 상기 디스플레이 모듈(151) 상에 소정의 그래픽 사용자 인터페이스(GUI)를 제공한다.The vertical distance between the finger 510 and the touch screen 500 measured in this manner and the horizontal coordinate of the finger 510 on the touch panel 400 are provided to the controller 180. Accordingly, the controller 180 determines a command of the user according to the vertical distance and the horizontal coordinate, performs a control operation according to the user command, and displays a predetermined graphical user interface (GUI) on the display module 151 ).

도 6은 상기 도 4의 터치스크린을 이용한 입력 매체의 위치 검출 원리를 설명하는 도면이다. FIG. 6 is a view for explaining the principle of position detection of an input medium using the touch screen of FIG.

도 6에 도시된 바와 같이, 터치패널(400)의 송신측 금속 전극들(T: 412-1, 412-4)에 교류전압원으로부터 교류 전압이 인가되면, 상기 송신측 금속 전극들(T: 412-1, 412-4)과 수신측 금속 전극들(R: 412-2, 412-3) 사이에 전기력선들(미도시)이 형성된다. 6, when an AC voltage is applied from the AC voltage source to the transmission-side metal electrodes T 412-1 and 412-4 of the touch panel 400, the transmission-side metal electrodes T 412 -1, and 412-4 and the reception-side metal electrodes R 412-2 and 412-3, respectively.

그리고, 상기 터치패널(400) 상에 사용자의 손가락(510)이 근접하거나 상기 터치패널(400)을 직접 터치하면 상기 금속 전극들(412-1 내지 412-4)에 전류 변화가 발생한다. 그러면, 상기 전류검출부(440-1 내지 440-4)는 이러한 전류량의 변화를 측정하고, 앞서 설명한 바와 같이, 위치검출부(470)는 이와 같은 전류량의 변화를 통하여 상기 손가락(510)이 상기 터치패널(400) 상에 위치한 수평 좌표(즉, x-y 좌표)를 검출하여 제어부(180)에 제공한다. 이에 따라, 상기 제어부(180)는 상기 손가락(510)이 터치하고 있는 상기 터치 스크린(500) 상의 수평 좌표를 인식하고, 상기 터치 동작에 대응하는 사용자 명령을 수행함과 아울러 상기 디스플레이 모듈(151) 상에 소정의 그래픽 사용자 인터페이스(GUI)를 제공할 수 있게 된다.When the finger 510 of the user is proximate to the touch panel 400 or directly touches the touch panel 400, a current change occurs in the metal electrodes 412-1 to 412-4. The position detecting unit 470 detects the position of the finger 510 on the basis of the amount of the current detected by the current detecting unit 440-1 through 440-4, (I.e., xy coordinates) located on the display unit 400 and provides the detected coordinates to the control unit 180. Accordingly, the controller 180 recognizes the horizontal coordinate on the touch screen 500 that the finger 510 touches, performs a user command corresponding to the touch operation, and controls the display module 151 To provide a predetermined graphical user interface (GUI).

또한, 상기 도 5 및 도 6에서는, 상기 터치 시간 측정부(460), 거리 검출 부(470) 및 위치 검출부(480)를 각각의 기능에 따라 서로 구분하여 도시하였으나, 상기 터치 시간 측정부(460), 거리 검출부(470) 및 위치 검출부(480)는 제어부(180) 내에 형성될 수 있다. 5 and 6, the touch time measuring unit 460, the distance detecting unit 470, and the position detecting unit 480 are shown as being separated from each other according to their functions. However, the touch time measuring unit 460 ), The distance detector 470 and the position detector 480 may be formed in the controller 180.

아울러, 상기 도 4 내지 도 6에서는 정전 용량 감지 방식에 따른 터치 패널(400)을 구비한 터치 스크린(500)을 예로 들어, 상기 터치 스크린(500)에 대한 상기 입력 매체의 근접 터치 및 직접 터치 여부를 판단하는 원리를 설명하였으나, 입력 매체와 터치 스크린(500) 간의 거리 및 입력 매체가 지시하고 있는 위치를 검출하는 기능을 제공할 수 있는 한, 상기 터치패널(400)의 종류 또는 상기 터치 패널(400)에 구성된 금속 전극들(412-1 내지 412-4)의 배열 형태는 제한되지 않는다. 4 to 6 illustrate a touch screen 500 having a touch panel 400 according to an electrostatic capacity sensing method. The proximity touch and the direct touch of the input medium to the touch screen 500 The type of the touch panel 400 or the type of the touch panel 500 may be used as long as it can provide the function of detecting the distance between the input medium and the touch screen 500 and the position indicated by the input medium. The arrangement of the metal electrodes 412-1 to 412-4 constituted in the electrodes 400 is not limited.

예를 들어, 상기 터치패널(400)은 레이저 다이오드(Laser Diode)와 발광다이오드(Light Emitting Diode)를 사용한 광전 센서, 고주파 발진형 근접 센서, 및 자기형 근접 센서를 이용하여 상기 입력 매체와 상기 터치패널(400)간에 근접 위치를 검출할 수 있도록 구현될 수 있을 뿐만 아니라, 상판 또는 하판에 금속 전극을 형성하고 상기 입력 매체에 의하여 눌려진 위치에 따른 전압의 변화를 검출하는 저항막 감지 방식(Resistive Sensing Type)과 상기 정전 용량 감지 방식을 서로 결합하여 구현될 수도 있다.For example, the touch panel 400 may include a touch panel 400 using a photoelectric sensor using a laser diode and a light emitting diode, a high frequency oscillation proximity sensor, and a magnetic proximity sensor, The present invention can be implemented not only to detect a proximity position between the panels 400 but also to form a metal electrode on an upper plate or a lower plate and to detect a change in voltage according to the pressed position by the input medium, Type) and the capacitance sensing method may be combined with each other.

도 7A 내지 도 7C는 본 발명의 제1 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 7A to 7C are views illustrating a method of providing a graphical user interface using a portable terminal having a proximity touch recognition function according to the first embodiment of the present invention.

상기 도 7A 내지 도 7C에 도시된 휴대 단말기(100)는 사용자가 화면을 보면서 상기 화면을 통하여 사용자 명령을 입력할 수 있도록, 상기 디스플레이 모듈(151)에 터치패드(400)가 상호 레이어 구조를 이루는 터치 스크린(500)을 구비한다. 특히, 상기 터치 스크린(500)은 입력 매체(예를 들어, 사용자의 손가락)(510)의 근접 터치 동작 및 직접 터치 동작을 구분할 수 있고, 이에 따라 상기 근접 터치 동작 및 직접 터치 동작에 따라 서로 다른 입력 신호를 생성할 수 있다. 따라서, 사용자는 입력 매체(510)를 이용하여 상기 터치 스크린(500)을 근접 터치 또는 직접 터치함에 따라 서로 다른 사용자 명령을 입력할 수 있게 된다. The portable terminal 100 shown in FIGS. 7A to 7C is configured such that the touch pad 400 has a mutual layer structure in the display module 151 so that a user can input a user command through the screen while viewing the screen And a touch screen 500. Particularly, the touch screen 500 can distinguish between the proximity touch operation and the direct touch operation of the input medium (e.g., the user's finger) 510, and accordingly, An input signal can be generated. Accordingly, the user can input different user commands by touching or directly touching the touch screen 500 using the input medium 510.

먼저, 도 7A는 본 발명의 제1 실시 예에 따라 입력 매체의 근접 터치 동작시 터치 스크린에 제공되는 그래픽 사용자 인터페이스를 설명하는 도면이다. 7A is a diagram for explaining a graphical user interface provided on a touch screen in a proximity touch operation of an input medium according to the first embodiment of the present invention.

도 7A에서는 휴대 단말기(100)의 터치 스크린(500)에 웹브라우저(600)가 실행되어, 상기 웹브라우저(600) 내에 웹페이지(610)가 디스플레이되고, 팝업창(620)이 상기 웹페이지(610) 상에 겹쳐서 디스플레이된 상태를 도시하고 있다. 7A, a web browser 600 is executed on the touch screen 500 of the portable terminal 100 to display a web page 610 in the web browser 600 and a popup window 620 is displayed on the web page 610 In a state in which they are superimposed on each other.

본 발명에서 정의되는 객체란 상기 터치 스크린(500) 상에 디스플레이될 수 있는 문자, 숫자, 기호, 심볼, 도형, 사진, 이미지, 동영상, 또는 이들의 조합으로 이루어진다. 따라서, 상기 웹브라우저(600) 및 상기 웹페이지(610)도 각각 하나의 독립적인 객체로 분류될 수 있으며, 상기 웹브라우저(600) 및 상기 웹페이지(610) 내에는 다수의 객체가 포함될 수 있다. The objects defined in the present invention include letters, numbers, symbols, symbols, graphics, photographs, images, moving pictures, or a combination thereof that can be displayed on the touch screen 500. Accordingly, the web browser 600 and the web page 610 may be classified as one independent object, and a plurality of objects may be included in the web browser 600 and the web page 610 .

상기 웹페이지(610)에는 예를 들어, 기업 로고, 메뉴바, 광고, 이미지, 텍스 트, 그래픽 등과 같은 다양한 객체들이 포함될 수 있다. 또한, 상기 웹페이지(610)에 포함된 기업 로고, 메뉴바, 광고, 이미지, 텍스트, 그래픽에는 각각 다른 웹페이지의 URL(Uniform Resource Locator)이 연결됨으로써, 사용자가 상기 기업 로고, 메뉴바, 광고, 이미지, 텍스트 또는 그래픽을 직접 터치함으로써 해당 웹페이지의 화면을 상기 터치 스크린(500)에 디스플레이할 수 있다. The web page 610 may include various objects such as a company logo, a menu bar, an advertisement, an image, a text, a graphic, and the like. A URL (Uniform Resource Locator) of another web page is linked to the company logo, the menu bar, the advertisement, the image, the text and the graphic included in the web page 610, , A screen of the web page can be displayed on the touch screen 500 by directly touching an image, text, or graphic.

또한, 상기 팝업창(620)은 특정 웹사이트가 어떠한 내용을 표시하기 위하여 갑자기 생성되는 새로운 창을 말한다. 상기 팝업창(620)은 주로 광고나 공지사항 등을 알리거나 새로운 프로그램을 설치하기 위하여 사용된다. Also, the pop-up window 620 refers to a new window in which a specific web site is suddenly generated to display certain contents. The pop-up window 620 is mainly used to announce advertisements, announcements, or install new programs.

도 7A에서는 상기 웹페이지(610)의 일부 영역만이 확대되어 디스플레이되고 있으나, 상기 웹페이지(610)의 전체 영역이 모두 축소되어 디스플레이될 수도 있다. 그리고, 상기 웹페이지(610)의 상부에는 광고를 나타내는 팝업창(620)이 겹쳐진다. 이와 같이, 상기 터치 스크린(500)에 서로 다른 2개 이상의 객체들(610, 620)이 서로 겹쳐져 다층(Multilayer) 구조로 디스플레이될 경우, 상기 객체들(610, 620) 중 하부에 디스플레이된 객체(즉, 웹페이지(620) 또는 웹브라우저(600))는 하위 레이어 객체로 정의되고, 상기 하위 레이어 객체 상에 겹쳐서 디스플레이된 객체(즉, 팝업창(620))는 상위 레이어 객체로 정의될 수 있다. 도 7A에서는 상기 팝업창(620)의 전체 영역이 상기 웹페이지(610) 상에 겹쳐져 있으나, 상기 팝업창(620)의 일부 영역만이 상기 웹페이지(610) 상에 겹쳐져 디스플레이되더라도, 상기 웹페이지(610)와 상기 팝업창(620)은 각각 하위 레이어 객체와 상위 레이어 객체로 분류될 수 있다. In FIG. 7A, only a partial area of the web page 610 is enlarged and displayed, but the entire area of the web page 610 may be reduced and displayed. A pop-up window 620 indicating an advertisement is superimposed on the upper part of the web page 610. When two or more different objects 610 and 620 are displayed on the touch screen 500 in a multi-layer structure, the object displayed on the lower portion of the objects 610 and 620 (I.e., the web page 620 or the web browser 600) is defined as a lower layer object, and an object displayed in a superimposed manner on the lower layer object (i.e., the popup window 620) may be defined as an upper layer object. 7A, although the entire area of the pop-up window 620 is overlapped on the web page 610, even if only a part of the pop-up window 620 is overlapped and displayed on the web page 610, the web page 610 And the pop-up window 620 may be classified into a lower layer object and an upper layer object, respectively.

또한, 도 7A에서 도면 부호 '511'은 입력 매체(예를 들어, 사용자의 손가락)(510)가 상기 터치 스크린(500)의 터치 인식 유효 거리 내에서 상기 터치 스크린(500)에 디스플레이된 팝업창(620)을 근접 터치하였음을 나타낸다. In FIG. 7A, reference numeral 511 denotes a pop-up window (not shown) displayed on the touch screen 500 within the touch recognition effective distance of the touch screen 500 620).

이와 같이, 상기 터치 스크린(500) 상에 상기 웹페이지(610)와 상기 팝업창(620)이 디스플레이된 상태에서 입력 매체(예를 들어, 사용자의 손가락)(510)가 상기 팝업창(620)을 일정 시간(예를 들어, 1초) 이상 근접 터치하게 되면, 제어부(180)는 상기 근접 터치 동작에 따른 사용자 명령이 입력되는 것으로 판단한다.In this way, when the web page 610 and the pop-up window 620 are displayed on the touch screen 500, the input medium (e.g., the user's finger) The control unit 180 determines that a user command based on the proximity touch operation is input.

상기 입력 매체(510)가 상기 팝업창(620)의 일정 위치를 근접 터치한 상태에서 화살표(520) 방향으로 근접 위치 이동하면, 상기 제어부(180)는 상기 입력 매체(510)가 본원 발명에 따른 근접 위치 이동 명령을 입력하는 것으로 식별하여, 도 7B에 도시된 바와 같이, 상기 팝업창(620)을 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 따라 이동하도록 제어하게 된다. 즉, 상기 팝업창(620)은 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 터치 스크린(510) 상에서 이동하도록 디스플레이될 수 있다. 여기서, 근접 위치 이동이란 상기 입력 매체(510)가 상기 터치 스크린(500)을 근접 터치한 상태에서, 상기 터치 스크린(500)을 직접 터치함이 없이, 상기 터치 스크린(500)의 표면을 따라 수평으로 이동하는 것을 말한다. When the input medium 510 moves close to the pop-up window 620 in the direction of the arrow 520 while the predetermined position of the pop-up window 620 is touched, the controller 180 determines that the input medium 510 is close It is identified that the position movement command is input and the pop-up window 620 is controlled to move in accordance with the movement of the input medium 510 on the touch screen 500, as shown in FIG. 7B. That is, the pop-up window 620 may be displayed to move on the touch screen 510 following the input medium 510 according to the movement path of the input medium 510. Here, the proximity position movement means that the input medium 510 is horizontally moved along the surface of the touch screen 500 without directly touching the touch screen 500, .

나아가, 상기 입력 매체(510)가 상기 팝업창(620)을 근접 터치한 상태에서 근접 위치 이동을 지속하여, 상기 팝업창(620)의 적어도 일정 부분이 상기 터치 스크린(500)에서 영상이 표시될 수 있는 가시 영역(Viewing Area) 밖으로 벗어나게 되면, 상기 제어부(180)는 상기 터치 스크린(500) 상에서 상기 팝업창(620)을 제거하게 된다. 예를 들어, 상기 팝업창(620)의 중앙부가 상기 터치 스크린(500)의 가시 영역을 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 팝업창(620)을 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 팝업창(620)을 상기 터치 스크린(500) 상에서 제거할 수 있다. 또한, 상기 입력 매체(510)가 근접 위치 이동을 지속하는 중에 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 팝업창(620)을 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 팝업창(620)이 상기 터치 스크린(500) 상에서 사라지도록 제어할 수도 있다. Further, the input medium 510 may continue to move in proximity to the pop-up window 620 while at least a portion of the pop-up window 620 may be displayed on the touch screen 500 The control unit 180 removes the pop-up window 620 from the touch screen 500 when the user exits the viewing area. For example, when the central portion of the pop-up window 620 is out of the visible range of the touch screen 500, the controller 180 determines that the user has input a user command for removing the pop-up window 620 The pop-up window 620 may be removed on the touch screen 500. When the input medium 510 is moved out of the visible range of the touch screen 500 while the input medium 510 continues to move in the proximity position, the controller 180 inputs a user command for removing the pop-up window 620 It is possible to control the pop-up window 620 to disappear from the touch screen 500.

이와 같이, 본 발명에 따르면 입력 매체(510)의 근접 터치 동작에 따라 터치 스크린(500) 상에 디스플레이된 광고 등의 팝업창(620)을 용이하게 제거할 수 있다. 또한, 본 발명에 따르면, 근접 터치 동작에 특화된 사용자 명령을 입력할 수 있도록 함으로써 사용자의 흥미를 유발할 수 있고, 보다 다양한 그래픽 사용자 인터페이스 환경을 제공할 수 있다. As described above, according to the present invention, a pop-up window 620 such as an advertisement displayed on the touch screen 500 can be easily removed according to the proximity touch operation of the input medium 510. In addition, according to the present invention, it is possible to input a user command specific to the proximity touch operation, thereby causing interest of the user and providing a more diverse graphical user interface environment.

도 8A 내지 도 8C는 본 발명의 제2 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 8A to 8C are views illustrating a method of providing a graphical user interface using a portable terminal having a proximity touch recognition function according to a second embodiment of the present invention.

도 8A에서는 휴대 단말기(100)의 터치 스크린(500)에 웹브라우저(600)가 실행되어, 상기 웹브라우저(600) 내에 웹페이지(610)가 디스플레이되고, 팝업창(620) 이 상기 웹페이지(610) 상에 겹쳐서 디스플레이된 상태를 도시하고 있다. 8A, a web browser 600 is executed on the touch screen 500 of the portable terminal 100, and a web page 610 is displayed in the web browser 600. When a popup window 620 is displayed on the web page 610 In a state in which they are superimposed on each other.

또한, 도 8A에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 팝업창(620)을 직접 터치하였음을 나타낸다. 8A, a check mark (?) 512 indicates that an input medium (e.g., a user's finger) has touched the pop-up window 620 directly.

이와 같이, 상기 입력 매체가 상기 팝업창(620)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향으로 위치 이동하면, 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 상기 팝업창(620)과 상기 웹페이지(610)를 모두 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 대응하여 이동하도록 제어하게 된다. 예를 들어, 도 8B를 참조하면, 상기 입력 매체(510)가 화살표(520)의 방향과 같이 상기 터치 스크린(500)의 우측 방향으로 이동할 경우, 상기 제어부(180)는 상기 팝업창(620)과 상기 웹페이지(610)를 모두 상기 터치 스크린(500) 상에서 좌측 방향으로 이동하도록 제어할 수 있다.When the input medium is moved in the direction of the arrow 520 along the surface of the touch screen 500 while directly touching a predetermined position of the pop-up window 620, the control unit 180 controls the input medium It is possible to identify the inputting of the direct touch position movement command according to the present invention so that both the pop-up window 620 and the web page 610 are moved in correspondence with the movement of the input medium 510 on the touch screen 500 Respectively. 8B, when the input medium 510 moves in the right direction of the touch screen 500 as indicated by an arrow 520, the controller 180 controls the pop-up window 620 and the pop- It is possible to control all of the web pages 610 to move leftward on the touch screen 500.

한편, 상기 입력 매체(510)의 직접 터치 위치 이동 명령에 따라 상기 팝업창(620)과 상기 웹페이지(610)가 이동하는 방향은 변경될 수 있다. 예를 들어, 상기 입력 매체(510)가 상기 터치 스크린(500)의 우측 방향으로 이동할 경우, 상기 제어부(180)는 상기 팝업창(620)과 상기 웹페이지(610)를 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 터치 스크린(500) 상에서 우측 방향으로 이동하도록 제어할 수도 있다. The direction of movement of the pop-up window 620 and the web page 610 may be changed according to a direct touch position movement command of the input medium 510. For example, when the input medium 510 moves to the right of the touch screen 500, the controller 180 controls the pop-up window 620 and the web page 610 to be displayed on the input medium 510 It may control to follow the input medium 510 according to the movement path and to move to the right side on the touch screen 500.

또한, 도 8C에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자 의 손가락)가 상기 웹페이지(610)을 직접 터치하였음을 나타낸다. 8C, the check mark (?) 512 indicates that the input medium (e.g., the user's finger) has touched the web page 610 directly.

이와 같이, 상기 입력 매체가 상기 웹페이지(610)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향으로 위치 이동하면, 역시 상기 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 상기 도 8B에 도시된 바와 같이, 상기 팝업창(620)과 상기 웹페이지(610)를 모두 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 대응하여 이동하도록 제어할 수 있다. When the input medium is moved in the direction of the arrow 520 along the surface of the touch screen 500 while directly touching a predetermined position of the web page 610, 8B, the pop-up window 620 and the web page 610 are both displayed on the touch screen 500, as shown in FIG. 8B, by inputting the direct touch position move command according to the present invention. It can be controlled to move in accordance with the movement of the input medium 510.

도 9A 내지 도 9E는 본 발명의 제3 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 9A to 9E illustrate a method of providing a graphical user interface using a portable terminal having a proximity touch recognition function according to a third embodiment of the present invention.

도 9A에서는 휴대 단말기(100)의 터치 스크린(500)에는 복수의 사진 객체들(700)이 썸네일(Thumbnail)과 같은 축소 사진 형태로 디스플레이된 상태를 도시하고 있다. 상기 복수의 사진 객체들(700)은 서로 겹쳐서 다층 구조를 형성하고 있다. 9A illustrates a state in which a plurality of photo objects 700 are displayed on a touch screen 500 of the portable terminal 100 in the form of thumbnails such as thumbnails. The plurality of photographic objects 700 overlap each other to form a multi-layer structure.

도 9A를 참조하면, 제1 사진 객체(710)는 그 일부 영역이 제2,3 사진 객체들(720, 730)의 하부에 겹쳐서 디스플레이되어 있다. 따라서, 상기 제1 사진 객체(710)는 상기 제2,3 사진 객체들(720, 730)의 하위 레이어 객체에 해당하고, 상기 제2,3 사진 객체들(720, 730)은 상기 제1 사진 객체(710)의 상위 레이어 객체들에 해당한다. 또한, 상기 제2 사진 객체(720)는 그 일부 영역이 제4 사진 객 체(740)의 하부에 겹쳐서 디스플레이되어 있다. 따라서, 상기 제2 사진 객체(720)는 상기 제4 사진 객체(740)의 하위 레이어 객체에 해당하고, 상기 제4 사진 객체(740)는 상기 제2 사진 객체(710)의 상위 레이어 객체에 해당한다. Referring to FIG. 9A, a first area of the first photographic object 710 is partially overlaid on the second and third photographic objects 720 and 730. Accordingly, the first photo object 710 corresponds to a lower layer object of the second and third photo objects 720 and 730, and the second and third photo objects 720 and 730 correspond to a lower layer object of the first photo Corresponds to the upper layer objects of the object 710. In addition, the second photo object 720 is partially displayed on the fourth photo object 740 in a superimposed manner. The second photographic object 720 corresponds to the lower layer object of the fourth photographic object 740 and the fourth photographic object 740 corresponds to the upper layer object of the second photographic object 710. [ do.

또한, 도 9A에서 도면 부호 '511'은 입력 매체(예를 들어, 사용자의 손가락)(510)가 상기 터치 스크린(500)의 터치 인식 유효 거리 내에서 상기 터치 스크린(500)에 디스플레이된 제1 사진 객체(710)를 근접 터치하였음을 나타낸다. 9A, reference numeral 511 indicates that an input medium (e.g., the user's finger) 510 is located within the touch recognition area of the touch screen 500, Indicating that the photo object 710 has been touched proximately.

이와 같이, 상기 터치 스크린(500) 상에 상기 제1 사진 객체(710)가 상기 제2,3 사진 객체들(720, 730)에 대한 하위 레이어 객체로 디스플레이된 상태에서 입력 매체(510)가 상기 제1 사진 객체(710)를 일정 시간(예를 들어, 1초) 이상 근접 터치하게 되면, 제어부(180)는 상기 근접 터치 동작에 따른 사용자 명령이 입력되는 것으로 판단하여, 도 9B에 도시된 바와 같이, 상기 제1 사진 객체(710)를 상기 제2,3 사진 객체들(720, 730)의 상부에 디스플레이시킨다. In this way, when the first photo object 710 is displayed on the touch screen 500 as a lower layer object for the second and third photo objects 720 and 730, The control unit 180 determines that the user command based on the proximity touch operation is input, and if the user touches the first photo object 710 for a predetermined time (for example, one second) Similarly, the first photo object 710 is displayed on top of the second and third photo objects 720 and 730.

상기 도 9B에 도시된 바와 같이, 상기 제1 사진 객체(710)가 상기 제2,3 사진 객체들(720, 730)의 상부에 디스플레이됨으로써, 상기 제1 사진 객체(710)는 상기 제2,3 사진 객체들(720, 730)에 대한 상위 레이어 객체로 변경되고, 상기 제2,3 사진 객체들(720, 730)은 상기 제1 사진 객체(710)에 대한 하위 레이어 객체들로 변경됨을 알 수 있다. 9B, the first photo object 710 is displayed on top of the second and third photo objects 720 and 730 so that the first photo object 710 is displayed on the second, 3 photo objects 720 and 730 and the second and third photo objects 720 and 730 are changed to lower layer objects for the first photo object 710 .

이어서, 도 9C를 참조하면, 상기 입력 매체(510)가 상위 레이어 객체로 변경된 상기 제1 사진 객체(710)의 일정 위치를 일정 시간(예를 들어, 1초) 이상 근접 터치한 상태에서 화살표(520) 방향으로 근접 위치 이동하면, 상기 제어부(180)는 상기 입력 매체(510)가 본원 발명에 따른 근접 위치 이동 명령을 입력하는 것으로 식별하여, 도 9D에 도시된 바와 같이, 상기 제1 사진 객체(710)를 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 따라 이동하도록 제어하게 된다. 즉, 상기 제1 사진 객체(710)는 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 터치 스크린(510) 상에서 이동하여 디스플레이될 수 있다. 9C, when the input medium 510 touches a predetermined position of the first photo object 710 changed to an upper layer object by a predetermined time (for example, one second) or more, 520, the control unit 180 identifies that the input medium 510 inputs the proximity movement command according to the present invention, and as shown in FIG. 9D, The control unit 710 controls the touch screen 500 to move according to the movement of the input medium 510. That is, the first photo object 710 may be displayed on the touch screen 510 following the input medium 510 according to the movement path of the input medium 510.

나아가, 상기 입력 매체(510)가 상기 제1 사진 객체(710)를 근접 터치한 상태에서 근접 위치 이동을 지속하여, 상기 제1 사진 객체(710)의 적어도 일정 영역이 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 상기 제1 사진 객체(710)를 상기 터치 스크린(500) 상에서 제거하게 된다. 예를 들어, 상기 제1 사진 객체(710)의 중앙부가 상기 터치 스크린(500)의 가시 영역을 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 제1 사진 객체(710)를 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 제1 사진 객체(710)를 상기 터치 스크린(500) 상에서 제거할 수 있다. 또한, 상기 입력 매체(510)가 근접 위치 이동을 지속하는 중에 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 제1 사진 객체(710)를 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 제1 사진 객체(710)를 상기 터치 스크린(500) 상에서 제거하도록 형성될 수도 있다. In addition, the input medium 510 may continue to move in the proximity of the first photo object 710 while at least a certain area of the first photo object 710 may be moved toward the touch screen 500 The control unit 180 removes the first photographic object 710 from the touch screen 500. As a result, For example, when the central portion of the first photo object 710 is out of the visible range of the touch screen 500, the controller 180 displays a user command for removing the first photo object 710 It is possible to remove the first photo object 710 on the touch screen 500. In addition, when the input medium 510 is moved out of the visible range of the touch screen 500 while the input medium 510 continues to move in the proximity position, the controller 180 controls the user to remove the first photo object 710 The first photographic object 710 may be removed on the touch screen 500, based on the determination that the command is input.

또한, 위에서 설명한 바와 같이, 상기 제1 사진 객체(710)의 적어도 일정 영역이 상기 터치 스크린(500)의 가시 영역 밖으로 벗어남으로써, 상기 터치 스크린(500) 상에서 제거된 경우, 상기 제어부(180)는 도 9E에 도시된 바와 같이 상기 터치 스크린(500)에 상기 제1 사진 객체(710)를 휴대 단말기(100)의 저장부(160)로부터 삭제(Delete)할 것인지 여부에 관한 사용자 명령을 입력받기 위한 사용자 명령 입력창(701)을 디스플레이한다. 상기 사용자 명령 입력창(701)에는 사용자로부터 삭제 명령을 입력받기 위한 제1 텍스트 객체(702)와 삭제하지 않음에 대한 명령을 입력받기 위한 제2 텍스트 객체(703)가 포함된다. 상기 제어부(180)는 상기 입력 매체(510)가 상기 제1,2 텍스트 객체들(702, 703) 중 어느 하나를 직접 터치함을 식별하여, 상기 제1 사진 객체(710)를 상기 저장부(160)로부터 삭제하거나 상기 저장부(160) 내에 그대로 유지할 수 있다. In addition, as described above, when at least a certain area of the first photo object 710 is removed from the visible area of the touch screen 500 and is removed on the touch screen 500, As shown in FIG. 9E, the touch screen 500 receives a user command regarding whether to delete the first photo object 710 from the storage unit 160 of the portable terminal 100 The user command input window 701 is displayed. The user command input window 701 includes a first text object 702 for receiving a delete command from a user and a second text object 703 for receiving a command for not deleting the command. The controller 180 identifies that the input medium 510 directly touches one of the first and second text objects 702 and 703 and transmits the first photo object 710 to the storage unit 160 or may remain in the storage unit 160 as it is.

즉, 사용자는 상기 입력 매체(750)를 이용하여 상기 제1,2 텍스트 객체들(702, 703) 중 어느 하나를 직접 터치함으로써 상기 제1 사진 객체(710)를 삭제할 것인지 여부를 재확인할 수 있게 된다. 이에 따라, 사용자가 의도하지 않은 터치 동작에 의하여 상기 제1 사진 객체(710)가 손실되는 문제를 방지할 수 있다. That is, the user can directly confirm whether to delete the first photo object 710 by touching any one of the first and second text objects 702 and 703 using the input medium 750 do. Accordingly, it is possible to prevent the first photo object 710 from being lost due to the unintended touch operation by the user.

상기 도 9E에서는 상기 사용자 입력 명령창(701)이 상기 제1 사진 객체(710)의 삭제 여부에 관한 사용자 명령을 입력받도록 구성되어 있으나, 상기 사용자 명령 입력창(701)은 상기 제1 사진 객체(710)를 복사(Copy)하거나 다른 폴더로 저장 공간을 이동(Move)시키기 위한 사용자 명령을 입력받도록 구성될 수도 있다. 9E, the user input command window 701 is configured to receive a user command related to whether or not the first photo object 710 is deleted. However, the user command input window 701 may include the first photo object 710 or copy or move the storage space to another folder.

도 10A 내지 도 10C는 본 발명의 제4 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 10A to 10C are views illustrating a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a fourth embodiment of the present invention.

도 10A에서는 휴대 단말기(100)의 터치 스크린(500)에 복수의 사진 객체들(700)이 썸네일(Thumbnail)과 같은 축소 사진 형태로 디스플레이된 상태를 도시하고 있다. 상기 복수의 사진 객체들(700)은 서로 겹쳐서 다층 구조를 형성하고 있다. 10A illustrates a state in which a plurality of photo objects 700 are displayed on a touch screen 500 of the portable terminal 100 in the form of thumbnails such as thumbnails. The plurality of photographic objects 700 overlap each other to form a multi-layer structure.

또한, 도 10A에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 복수의 사진 객체들(700) 중 제4 사진 객체(740)를 직접 터치하였음을 나타낸다. 상기 제4 사진 객체(740)는 제2 사진 객체(720)에 대하여 상위 레이어 객체에 해당한다. 반대로, 상기 제2 사진 객체(720)는 상기 제4 사진 객체(740)에 대하여 하위 레이어 객체에 해당한다. 10A, the check mark () 512 indicates that the input media (e.g., the user's finger) has touched the fourth photographic object 740 of the plurality of photographic objects 700 directly . The fourth photographic object 740 corresponds to the upper layer object with respect to the second photographic object 720. In contrast, the second photo object 720 corresponds to the lower layer object with respect to the fourth photo object 740.

이와 같이, 상기 입력 매체가 상기 제4 사진 객체(740)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향(즉, 우측 방향)으로 위치 이동하면, 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 도 10B에 도시된 바와 같이, 상기 복수의 사진 객체들(700)을 모두 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 대응하여 이동하도록 제어한다. When the input medium is moved in the direction of the arrow 520 (i.e., the right direction) along the surface of the touch screen 500 while directly touching a predetermined position of the fourth photo object 740, The control unit 180 identifies that the input medium is inputting the direct touch position movement command according to the present invention so that all of the plurality of photo objects 700 are displayed on the touch screen 500, In response to the movement of the input medium 510.

도 10B를 참조하면, 상기 입력 매체가 터치 스크린(500)의 표면을 따라 우측 방향으로 이동함에 따라, 상기 터치 스크린(500)의 우측 경계 밖에 위치하고 있던 제7,8 사진 객체들(770, 780)이 상기 터치 스크린(500)의 가시 영역 안으로 들어오게 된다. Referring to FIG. 10B, as the input medium moves rightward along the surface of the touch screen 500, the seventh and eighth picture objects 770 and 780, which are located outside the right boundary of the touch screen 500, Enters the visible region of the touch screen (500).

즉, 상기 입력 매체가 터치 스크린(500)의 우측 방향으로 직접 터치 위치 이동하면, 상기 복수의 사진 객체들(700)은 상기 터치 스크린(500) 상에서 좌측으로 이동하게 된다. 이에 따라, 상기 터치 스크린(500)의 가시 영역 내에서 좌측에 디스플레이되어 있던 제5,6 사진 객체들(750, 756)은 상기 터치 스크린(500)의 좌측 경계 밖으로 사라지게 된다. 반면에, 상기 터치 스크린(500)의 가시 영역 우측 경계 밖에 배열되어 있던 제7,8 사진 객체들(770, 786)이 상기 터치 스크린(500)의 가시 영역 내에 디스플레이된다. That is, when the input medium moves directly to the right of the touch screen 500, the plurality of photo objects 700 are moved to the left on the touch screen 500. Accordingly, the fifth and sixth photographic objects 750 and 756 displayed on the left side in the visible region of the touch screen 500 disappear from the left border of the touch screen 500. On the other hand, the seventh and eighth photo objects 770 and 786 arranged outside the right boundary of the visible region of the touch screen 500 are displayed in the visible region of the touch screen 500.

한편, 상기 입력 매체의 직집 터치 위치 이동 명령에 따라 상기 복수의 사진 객체들(700)이 이동하는 방향은 변경될 수 있다. 예를 들어, 상기 입력 매체(510)가 상기 터치 스크린(500)의 우측 방향으로 이동할 경우, 상기 제어부(180)는 상기 복수의 사진 객체들(700)이 상기 입력 매체의 이동 경로에 따라 상기 입력 매체를 추종하여 상기 터치 스크린(500) 상에서 우측 방향으로 이동하도록 제어할 수도 있다.Meanwhile, the direction in which the plurality of photo objects 700 are moved may be changed according to the direct touch position movement command of the input medium. For example, when the input medium 510 is moved to the right of the touch screen 500, the controller 180 controls the plurality of photo objects 700 to move the input It may be controlled to move in the right direction on the touch screen 500 following the medium.

또한, 도 10C에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 제1 사진 객체(710)을 직접 터치하였음을 나타낸다. 10C, a check mark (?) 512 indicates that the input media (e.g., the user's finger) has touched the first photo object 710 directly.

이와 같이, 상기 입력 매체가 하위 레이어 객체에 해당하는 상기 제1 사진 객체(710)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향으로 위치 이동하면, 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 상기 도 10B에 도시된 바와 같이, 상기 복수의 사진 객체들(700)을 모두 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 대응하여 이동하도록 제어할 수도 있다. When the input medium is moved in the direction of the arrow 520 along the surface of the touch screen 500 while directly touching a predetermined position of the first photo object 710 corresponding to the lower layer object, The control unit 180 identifies that the input medium inputs the direct touch position movement command according to the present invention so that all of the plurality of photo objects 700 are displayed on the touch screen 500 In response to the movement of the input medium 510. [

도 11A 내지 도 11C는 본 발명의 제5 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 11A to 11C are views illustrating a method of providing a graphical user interface using a portable terminal having a proximity touch recognition function according to a fifth embodiment of the present invention.

도 11A에서는 휴대 단말기(100)의 터치 스크린(500)에 가시 영역 전체에 소정의 메뉴 화면(800)이 디스플레이되고, 아울러 상기 메뉴 화면(800)의 상부에는 소리 설정을 위한 팝업창(810)이 디스플레이된 상태를 도시하고 있다. 상기 메뉴 화면(800)과 상기 팝업창(810)은 서로 겹쳐서 다층 구조를 형성하고 있다. 11A, a predetermined menu screen 800 is displayed on the entire visible region of the touch screen 500 of the portable terminal 100 and a pop-up window 810 for setting the sound is displayed on the upper portion of the menu screen 800 Respectively. The menu screen 800 and the pop-up window 810 overlap each other to form a multi-layer structure.

도 11A를 참조하면, 상기 팝업창(810)의 전체 영역은 상기 메뉴 화면(800)의 상부에 겹쳐서 디스플레이되어 있다. 따라서, 상기 팝업창(810)는 상기 메뉴 화면(800)의 상위 레이어 객체에 해당하고, 상기 메뉴 화면(800)은 상기 팝업창(810)의 하위 레이어 객체에 해당한다. Referring to FIG. 11A, the entire area of the pop-up window 810 is overlaid on the menu screen 800. Accordingly, the pop-up window 810 corresponds to an upper layer object of the menu screen 800 and the menu screen 800 corresponds to a lower layer object of the pop-up window 810. [

또한, 도 11A에서 도면 부호 '511'은 입력 매체(예를 들어, 사용자의 손가락)(510)가 상기 터치 스크린(500)의 터치 인식 유효 거리 내에서 상기 터치 스크린(500)에 디스플레이된 팝업창(810)을 근접 터치하였음을 나타낸다. 11A, reference numeral 511 denotes a pop-up window (e.g., a user's finger) 510 displayed on the touch screen 500 within a touch recognition effective distance of the touch screen 500 810).

이와 같이, 상기 터치 스크린(500) 상에 상기 팝업창(810)가 상기 메뉴 화면(800)에 대한 상위 레이어 객체로 디스플레이된 상태에서 입력 매체(510)가 상기 팝업창(810)을 일정 시간(예를 들어, 1초) 이상 근접 터치한 후 화살표(520) 방향으로 근접 위치 이동하면, 상기 제어부(180)는 상기 입력 매체(510)가 본원 발명에 따른 근접 위치 이동 명령을 입력하는 것으로 식별하여, 도 11B에 도시된 바와 같이, 상기 팝업창(810)을 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 따라 이동하도록 제어하게 된다. 즉, 상기 팝업창(810)은 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 터치 스크린(510) 상에서 이동하여 디스플레이될 수 있다. In this way, when the pop-up window 810 is displayed as an upper layer object on the menu screen 800 on the touch screen 500, the input medium 510 displays the pop-up window 810 for a predetermined time The control unit 180 identifies that the input medium 510 inputs the proximity position movement command according to the present invention, and if the proximity position movement command is input to the input medium 510, The pop-up window 810 is controlled to move in accordance with the movement of the input medium 510 on the touch screen 500, as shown in FIG. That is, the pop-up window 810 can be displayed on the touch screen 510 following the input medium 510 according to the movement path of the input medium 510.

나아가, 상기 입력 매체(510)가 상기 팝업창(810)을 근접 터치한 상태에서 근접 위치 이동을 지속하여, 상기 팝업창(810)의 적어도 일정 부분이 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 상기 팝업창(810)을 상기 터치 스크린(500) 상에서 제거하게 된다. 예를 들어, 상기 팝업창(810)의 중앙부가 상기 터치 스크린(500)의 가시 영역을 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 팝업창(810)을 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 팝업창(810)을 상기 터치 스크린(500) 상에서 제거할 수 있다. 또한, 상기 입력 매체(510)가 근접 위치 이동을 지속하는 중에 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 팝업창(810)을 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 팝업창(810)을 상기 터치 스크린(500) 상에서 제거하도록 형성될 수도 있다. When the input medium 510 continues to move in the proximity position while the pop-up window 810 is touched and at least a certain portion of the pop-up window 810 is out of the visible range of the touch screen 500, The control unit 180 removes the pop-up window 810 from the touch screen 500. For example, when the central portion of the pop-up window 810 is out of the visible range of the touch screen 500, the controller 180 determines that the user has input a user command for removing the pop-up window 810 The pop-up window 810 may be removed on the touch screen 500. When the input medium 510 is moved out of the visible range of the touch screen 500 while the input medium 510 continues to move in the proximity position, the control unit 180 causes the user to input a user command for removing the pop-up window 810 It may be formed to remove the pop-up window 810 on the touch screen 500.

도 12A 내지 도 12B는 본 발명의 제6 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 12A to 12B are views illustrating a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a sixth embodiment of the present invention.

도 12A에서는 휴대 단말기(100)의 터치 스크린(500)에 가시 영역 전체에 소정의 메뉴 화면(800)이 디스플레이되고, 아울러 상기 메뉴 화면(800)의 상부에는 소리 설정을 위한 팝업창(810)이 디스플레이된 상태를 도시하고 있다. 상기 메뉴 화면(800)과 상기 팝업창(810)은 서로 겹쳐서 다층 구조를 형성하고 있다. 12A, a predetermined menu screen 800 is displayed on the entire visible region of the touch screen 500 of the portable terminal 100 and a pop-up window 810 for sound setting is displayed on the upper portion of the menu screen 800 Respectively. The menu screen 800 and the pop-up window 810 overlap each other to form a multi-layer structure.

또한, 도 12A에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 팝업창(810)을 직접 터치하였음을 나타낸다. 12A, the check mark (?) 512 indicates that the input medium (e.g., the user's finger) has touched the pop-up window 810 directly.

이와 같이, 상기 입력 매체가 상기 팝업창(810)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향으로 위치 이동하면, 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 도 12B에 도시된 바와 같이, 상기 팝업창(810)을 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 따라 이동하도록 제어하게 된다. 즉, 상기 팝업창(810)은 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 터치 스크린(500) 상에서 이동하여 디스플레이될 수 있다. When the input medium is moved in the direction of the arrow 520 along the surface of the touch screen 500 in a state where the input medium directly touches a predetermined position of the pop-up window 810, 12B, the touch screen 500 is controlled to move the pop-up window 810 according to the movement of the input medium 510, . That is, the pop-up window 810 may be displayed on the touch screen 500 following the input medium 510 according to the movement path of the input medium 510.

나아가, 상기 입력 매체(510)가 상기 팝업창(810)을 직접 터치한 상태에서 직접 터치 위치 이동을 지속하여, 상기 팝업창(810)의 적어도 일정 영역이 상기 터 치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 상기 팝업창(810)를 상기 터치 스크린(500) 상에서 제거하게 된다. 예를 들어, 상기 팝업창(810)의 중앙부가 상기 터치 스크린(500)의 가시 영역을 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 팝업창(810)을 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 팝업창(810)을 상기 터치 스크린(500) 상에서 제거할 수 있다. 또한, 상기 입력 매체(510)가 직접 터치 위치 이동을 지속하는 중에 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 사용자가 상기 팝업창(810)을 제거하기 위한 사용자 명령을 입력한 것으로 판단하여 상기 팝업창(810)을 상기 터치 스크린(500) 상에서 제거하도록 형성될 수도 있다. Further, the input medium 510 directly touches the pop-up window 810 and continues to directly move the touch position so that at least a certain region of the pop-up window 810 is deviated from the visible region of the touch screen 500 The control unit 180 removes the pop-up window 810 from the touch screen 500. For example, when the central portion of the pop-up window 810 is out of the visible range of the touch screen 500, the controller 180 determines that the user has input a user command for removing the pop-up window 810 The pop-up window 810 may be removed on the touch screen 500. In addition, if the input medium 510 is moved out of the visible range of the touch screen 500 while the input medium 510 continues to directly move the touch position, the controller 180 displays a user command for removing the pop-up window 810 The pop-up window 810 may be formed on the touch screen 500 to be removed.

도 13A 내지 도 13C는 본 발명의 제7 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 13A to 13C are views illustrating a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a seventh embodiment of the present invention.

먼저, 도 13A는 본 발명의 제7 실시 예에 따라 입력 매체의 근접 터치 동작시 터치 스크린에 제공되는 그래픽 사용자 인터페이스를 설명하는 도면이다. 13A is a diagram illustrating a graphical user interface provided on a touch screen in a proximity touch operation of an input medium according to a seventh embodiment of the present invention.

도 13A에서는 휴대 단말기(100)에 게임 기능(예를 들어, 체스 게임)이 실행되어, 터치 스크린(500) 상에 배경 화면(예를 들어, 체스판)(900)이 디스플레이되고, 아울러 게임 캐릭터(예를 들어, 체스 말)(910)가 상기 배경 화면(900)의 상에 겹쳐서 디스플레이된 상태를 도시하고 있다. 상기 배경 화면(900)과 상기 게임 캐릭터(910)는 서로 겹쳐서 다층 구조를 형성하고 있다. 여기서, 상기 배경 화 면(900)은 상위 레이어 객체에 해당하고, 상기 게임 캐릭터(910)는 하위 레이어 객체에 해당한다. 13A, a game function (e.g., a chess game) is executed on the portable terminal 100, a background screen (e.g., a chessboard) 900 is displayed on the touch screen 500, (For example, chess horse) 910 is displayed on the background screen 900 in a superimposed manner. The background screen 900 and the game character 910 overlap each other to form a multi-layer structure. Here, the background screen 900 corresponds to an upper layer object, and the game character 910 corresponds to a lower layer object.

도 13A에서는 상기 게임 기능으로서 체스 게임을 예로 들어 설명하고 있으나, 상기 배경 화면(900)은 다양한 실내외 공간, 또는 물건 등으로 이루어질 수 있고, 또한 상기 게임 캐릭터(910) 역시 인물, 동물, 및 물건과 같이 상기 배경 화면(900) 상에서 일정한 규칙 또는 이야기 내용 등에 따라 이동될 수 있는 것이라면 모두 포함될 수 있다. 13A illustrates a chess game as an example of the game function. However, the background screen 900 may be composed of various indoor and outdoor spaces or objects, and the game character 910 may also be a character, an animal, As long as it can be moved on the background screen 900 according to a certain rule or story contents.

또한, 도 13A에서 도면 부호 '511'은 입력 매체(예를 들어, 사용자의 손가락)(510)가 상기 터치 스크린(500)의 터치 인식 유효 거리 내에서 상기 터치 스크린(500)에 디스플레이된 게임 캐릭터(910)를 근접 터치하였음을 나타낸다. In FIG. 13A, reference numeral '511' indicates that the input medium (for example, the user's finger) 510 indicates the game character displayed on the touch screen 500 within the touch recognition effective distance of the touch screen 500 (910).

이와 같이, 상기 터치 스크린(500) 상에 상기 배경 화면(900)과 상기 게임 캐릭터(910)이 디스플레이된 상태에서 입력 매체(예를 들어, 사용자의 손가락)(510)가 상기 게임 캐릭터(910)를 일정 시간(예를 들어, 1초) 이상 근접 터치하게 되면, 제어부(180)는 상기 근접 터치 동작에 따른 사용자 명령이 입력되는 것으로 판단한다.In this way, when the background image 900 and the game character 910 are displayed on the touch screen 500, an input medium (e.g., a user's finger) 510 is displayed on the game character 910, The control unit 180 determines that a user command based on the proximity touch operation is input.

이와 같이, 상기 입력 매체(510)가 상기 게임 캐릭터(910)의 일정 위치를 근접 터치한 상태에서 화살표(520) 방향으로 근접 위치 이동하면, 상기 제어부(180)는 상기 입력 매체(510)가 본원 발명에 따른 근접 위치 이동 명령을 입력하는 것으로 식별하여, 도 13B에 도시된 바와 같이, 상기 배경 화면(900)은 상기 터치 스크린(500)에 고정된 상태에서, 상기 게임 캐릭터(910)를 상기 입력 매체(510)의 이동 에 따라 상기 터치 스크린(500)에서 이동하도록 제어하게 된다. 즉, 상기 게임 캐릭터(910)는 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 터치 스크린(510) 상에서 이동하여 디스플레이될 수 있다. If the input medium 510 moves close to the game character 910 in the direction of the arrow 520 while the game character 910 is touched at a predetermined position, 13B, the background screen 900 is fixed to the touch screen 500 and the game character 910 is moved to the input side of the touch screen 500, And controls to move in the touch screen 500 according to the movement of the medium 510. That is, the game character 910 may be displayed on the touch screen 510 following the input medium 510 according to the movement path of the input medium 510.

나아가, 상기 입력 매체(510)가 상기 게임 캐릭터(910)를 근접 터치한 상태에서 근접 위치 이동을 지속하여, 상기 게임 캐릭터(910)의 적어도 일정 영역이 상기 터치 스크린(500)의 가시 영역 밖으로 벗어나게 되면, 상기 제어부(180)는 상기 게임 캐릭터(910)를 상기 터치 스크린(500) 상에서 제거하게 된다. Further, the input medium 510 may continue to move in proximity to the game character 910 while the game character 910 is being touched, so that at least a certain region of the game character 910 may deviate from the visible region of the touch screen 500 The controller 180 removes the game character 910 from the touch screen 500.

이와 같이, 본 발명에 따르면 휴대 단말기(100)에 게임 기능이 실행되고 있는 동안에 입력 매체(510)의 근접 터치 동작에 따라 터치 스크린(500) 상에 디스플레이된 게임 캐릭터(910)를 상기 배경 화면(900) 상에서 용이하게 이동시킬 수 있다. According to the present invention, the game character 910 displayed on the touch screen 500 according to the proximity touch operation of the input medium 510 while the game function is being executed in the portable terminal 100 is displayed on the background screen 900). ≪ / RTI >

결과적으로, 본 발명에 따르면 근접 터치 동작에 특화된 사용자 명령을 입력할 수 있도록 함으로써 다양한 게임 조작 기능을 제공할 수 있고, 보다 다양한 그래픽 사용자 인터페이스 환경을 제공할 수 있다. As a result, according to the present invention, it is possible to input a user command specific to the proximity touch operation, thereby providing various game operation functions and providing a more diverse graphical user interface environment.

도 14A 내지 도 14C는 본 발명의 제8 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면이다. 14A to 14C are views illustrating a method for providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to an eighth embodiment of the present invention.

도 14A에서는 휴대 단말기(100)에 게임 기능이 실행되어, 터치 스크린(500)에 배경 화면(900)이 디스플레이되고, 아울러 게임 캐릭터(910)가 상기 배경 화 면(900) 상에 겹쳐서 디스플레이된 상태를 도시하고 있다. 14A shows a state in which the game function is executed in the portable terminal 100 and the background screen 900 is displayed on the touch screen 500 and the game character 910 is superimposed on the background screen 900 Respectively.

또한, 도 14A에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 게임 캐릭터(910)를 직접 터치하였음을 나타낸다. 14A, the check mark (?) 512 indicates that the input medium (e.g., the user's finger) has touched the game character 910 directly.

이와 같이, 상기 입력 매체가 상기 게임 캐릭터(910)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향으로 위치 이동하면, 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 도 14B에 도시된 바와 같이, 상기 게임 캐릭터(910)와 상기 배경 화면(900)을 모두 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 대응하여 이동하도록 제어하게 된다. 예를 들어, 도 14B에 도시된 바와 같이, 상기 입력 매체(510)가 상기 화살표(520)의 방향과 같이 상기 터치 스크린(500)의 우측 상방향으로 이동할 경우, 상기 제어부(180)는 상기 배경 화면(900)과 상기 게임 캐릭터(910)를 모두 상기 터치 스크린(500) 상에서 좌측 하방향으로 이동하도록 제어할 수 있다.When the input medium is moved in the direction of the arrow 520 along the surface of the touch screen 500 while the input character is directly touched on the predetermined position of the game character 910, The game character 910 and the background screen 900 are all displayed on the touch screen 500 as shown in FIG. 14B, In response to the movement of the movable member 510. For example, as shown in FIG. 14B, when the input medium 510 moves in the direction of the right of the touch screen 500 as shown by the arrow 520, It is possible to control both the screen 900 and the game character 910 to move leftward and downward on the touch screen 500.

한편, 상기 입력 매체(510)의 직집 터치 위치 이동 명령에 따라 상기 배경 화면(900)과 상기 게임 캐픽터(910)가 이동하는 방향은 변경될 수 있다. 예를 들어, 상기 입력 매체(510)가 상기 터치 스크린(500)의 우측 상방향으로 이동할 경우, 상기 제어부(180)는 상기 입력 매체(510)의 이동 경로에 따라 상기 입력 매체(510)를 추종하여 상기 배경 화면(900)과 상기 게임 캐릭터(910)를 상기 터치 스크린(500) 상에서 우측 상방향으로 이동하도록 제어할 수도 있다. Meanwhile, the direction in which the background screen 900 and the game container 910 are moved may be changed according to the direct touch position movement command of the input medium 510. For example, when the input medium 510 moves to the upper right of the touch screen 500, the controller 180 controls the input medium 510 to follow the input medium 510, And control the movement of the background screen 900 and the game character 910 in the upper right direction on the touch screen 500.

또한, 도 14C에 있어서, 체크 마크(√)(512)는 입력 매체(예를 들어, 사용자의 손가락)가 상기 배경 화면(900)을 직접 터치하였음을 나타낸다. 14C, the check mark (?) 512 indicates that the input medium (e.g., the user's finger) has touched the background screen 900 directly.

이와 같이, 상기 입력 매체가 상기 배경 화면(900)의 일정 위치를 직접 터치한 상태에서 상기 터치 스크린(500)의 표면을 따라 화살표(520) 방향으로 위치 이동하면, 제어부(180)는 상기 입력 매체가 본원 발명에 따른 직접 터치 위치 이동 명령을 입력하는 것으로 식별하여, 상기 도 14B에 도시된 바와 같이, 상기 배경 화면(900)과 상기 게임 캐릭터(910)를 모두 상기 터치 스크린(500)에서 상기 입력 매체(510)의 이동에 대응하여 이동시키도록 형성될 수도 있다. When the input medium is moved in the direction of the arrow 520 along the surface of the touch screen 500 while the input medium directly touches a predetermined position of the background screen 900, As shown in FIG. 14B, the background screen 900 and the game character 910 are both input to the touch screen 500 from the touch screen 500, as shown in FIG. 14B, Or may be formed to move in correspondence with the movement of the medium 510.

상기와 같이 설명된 근접 터치 인식 기능을 갖는 휴대 단말기 및 이를 이용한 그래픽 사용자 인터페이스 제공 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. The portable terminal having the above-described proximity touch recognition function and the method of providing a graphic user interface using the portable terminal are not limited to the configuration and method of the embodiments described above, All or some of the embodiments may be selectively combined.

도 1은 본 발명의 일 실시예와 관련된 휴대 단말기의 블록 구성도. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention;

도 2는 본 발명과 관련된 휴대 단말기의 일 예를 전면에서 바라본 사시도. FIG. 2 is a perspective view of an example of a portable terminal according to the present invention. FIG.

도 3는 도 2의 휴대 단말기의 후면 사시도. 3 is a rear perspective view of the portable terminal of FIG. 2;

도 4는 본 발명과 관련된 터치스크린의 구조를 나타내는 도면.4 illustrates a structure of a touch screen associated with the present invention.

도 5는 상기 도 4의 터치스크린을 이용한 입력 매체의 근접 거리를 검출하는 원리를 설명하는 도면. 5 is a view for explaining the principle of detecting a proximity distance of an input medium using the touch screen of FIG.

도 6은 상기 도 4의 터치스크린을 이용한 입력 매체의 위치 검출 원리를 설명하는 도면. 6 is a view for explaining the principle of position detection of an input medium using the touch screen of FIG.

도 7A 내지 도 7C는 본 발명의 제1 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 7A to 7C are views illustrating a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a first embodiment of the present invention.

도 8A 내지 도 8C는 본 발명의 제2 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 8A to 8C illustrate a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a second embodiment of the present invention.

도 9A 내지 도 9E는 본 발명의 제3 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 9A to 9E illustrate a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a third embodiment of the present invention.

도 10A 내지 도 10C는 본 발명의 제4 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 10A to 10C illustrate a method for providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a fourth embodiment of the present invention.

도 11A 내지 도 11C는 본 발명의 제5 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 11A to 11C illustrate a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a fifth embodiment of the present invention.

도 12A 내지 도 12B는 본 발명의 제6 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 12A to 12B illustrate a method of providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a sixth embodiment of the present invention.

도 13A 내지 도 13C는 본 발명의 제7 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 13A to 13C illustrate a method for providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to a seventh embodiment of the present invention.

도 14A 내지 도 14C는 본 발명의 제8 실시 예에 따른 근접 터치 인식 기능을 갖는 휴대 단말기를 이용한 그래픽 사용자 인터페이스 제공 방법을 설명하는 도면. 14A to 14C illustrate a method for providing a graphical user interface using a mobile terminal having a proximity touch recognition function according to an eighth embodiment of the present invention.

Claims (11)

서로 다른 레이어에 배치되는 복수의 객체를 디스플레이하는 터치 스크린; 및A touch screen for displaying a plurality of objects disposed on different layers; And 상기 복수의 객체 중 어느 하나의 객체에 대해, 입력 매체로부터 근접 터치 또는 직접 터치를 수신하고, 상기 어느 하나의 객체에 근접 터치가 소정 시간 이상 수신되고, 상기 근접 터치를 유지하면서 상기 입력 매체가 이동하는 경우, 상기 어느 하나의 객체를 상기 터치 스크린상에서 이동하여 디스플레이하고, 상기 어느 하나의 객체에 대해 직접 터치가 수신되고, 상기 직접 터치를 유지하면서 상기 입력 매체가 이동하는 경우, 상기 복수의 객체를 상기 터치 스크린 상에서 이동하여 디스플레이하는 제어부를 포함하는 휴대 단말기. Wherein the controller is configured to receive a proximity touch or a direct touch from an input medium with respect to any one of the plurality of objects and to receive the proximity touch for any one of the objects for a predetermined time or longer, A touch is directly received with respect to any one of the objects, and when the input medium moves while maintaining the direct touch, the plurality of objects are displayed on the touch screen, And a controller for moving and displaying on the touch screen. 삭제delete 제1항에 있어서, 상기 제어부는, The apparatus of claim 1, 상기 입력 매체가 상기 근접 터치를 유지하면서 상기 터치 스크린의 가시 영역을 벗어나도록 이동하는 경우, 상기 어느 하나의 객체를 상기 터치 스크린에서 제거하는 휴대 단말기.And removes any one of the objects from the touch screen when the input medium moves out of the visible range of the touch screen while maintaining the proximity touch. 제1항에 있어서, 상기 제어부는, The apparatus of claim 1, 상기 입력 매체가 상기 근접 터치를 유지하면서 상기 터치 스크린의 가시 영역을 벗어나도록 이동하는 경우, 상기 어느 하나의 객체를 상기 터치 스크린에서 제거할 것인지에 대한 사용자 명령을 수신하기 위한 입력창을 디스플레이하는 휴대 단말기.The touch screen device according to claim 1, wherein the input medium is a touch screen, and the input medium is moved away from the visible area of the touch screen while maintaining the proximity touch. . 제1항에 있어서, 상기 제어부는, The apparatus of claim 1, 상기 어느 하나의 객체에 근접 터치가 소정 시간 이상 수신되는 경우, 상기 어느 하나의 객체를 상위 레이어의 객체로 변경하는 휴대 단말기.And changes any one of the objects to an object of an upper layer when proximity touch is received for any one of the objects for a predetermined time or longer. 삭제delete 서로 다른 레이어에 배치되는 복수의 객체를 터치스크린에 디스플레이하는 단계;Displaying a plurality of objects disposed on different layers on a touch screen; 상기 복수의 객체 중 어느 하나의 객체에 대해, 입력 매체로부터 근접 터치 또는 직접 터치를 수신하는 단계;Receiving a proximity or direct touch from an input medium for any one of the plurality of objects; 상기 어느 하나의 객체에 근접 터치가 소정 시간 이상 수신되고, 상기 근접 터치를 유지하면서 상기 입력 매체가 이동하는 경우, 상기 어느 하나의 객체를 상기 터치 스크린상에서 이동하여 디스플레이하는 단계; 및Moving and displaying the one of the objects on the touch screen when the proximity touch is received for a predetermined time or longer and the input medium moves while maintaining the proximity touch; And 상기 어느 하나의 객체에 대해 직접 터치가 수신되고, 상기 직접 터치를 유지하면서 상기 입력 매체가 이동하는 경우, 상기 복수의 객체를 상기 터치 스크린 상에서 이동하여 디스플레이하는 단계를 포함하는 그래픽 사용자 인터페이스 제공 방법. And moving and displaying the plurality of objects on the touch screen when a direct touch is received for any one of the objects and the input medium moves while maintaining the direct touch. 삭제delete 제7항에 있어서, 8. The method of claim 7, 상기 입력 매체가 상기 근접 터치를 유지하면서 상기 터치 스크린의 가시 영역을 벗어나도록 이동하는 경우, 상기 어느 하나의 객체를 상기 터치 스크린에서 제거하는 단계를 더 포함하는 그래픽 사용자 인터페이스 제공 방법. Further comprising the step of, when the input medium moves out of the visible range of the touch screen while maintaining the proximity touch, removing any one of the objects from the touch screen. 제7항에 있어서, 8. The method of claim 7, 상기 입력 매체가 상기 근접 터치를 유지하면서 상기 터치 스크린의 가시 영역을 벗어나도록 이동하는 경우, 상기 어느 하나의 객체를 상기 터치 스크린에서 제거할 것인지에 대한 사용자 명령을 수신하기 위한 입력창을 디스플레이하는 단계를 더 포함하는 그래픽 사용자 인터페이스 제공 방법. Displaying an input window for receiving a user command to remove the object from the touch screen when the input medium moves away from the visible area of the touch screen while maintaining the proximity touch, Wherein the graphical user interface further comprises: 제7항에 있어서, 상기 어느 하나의 객체를 상기 터치 스크린상에서 이동하여 디스플레이하는 단계는,8. The method of claim 7, wherein moving and displaying the one or more objects on the touch screen comprises: 상기 어느 하나의 객체를 상위 레이어의 객체로 변경하는 것을 포함하는 그래픽 사용자 인터페이스 제공 방법. And changing one of the objects to an object of an upper layer.
KR1020080030446A 2008-04-01 2008-04-01 Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same KR101469280B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080030446A KR101469280B1 (en) 2008-04-01 2008-04-01 Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080030446A KR101469280B1 (en) 2008-04-01 2008-04-01 Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same

Publications (2)

Publication Number Publication Date
KR20090105160A KR20090105160A (en) 2009-10-07
KR101469280B1 true KR101469280B1 (en) 2014-12-04

Family

ID=41534892

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080030446A KR101469280B1 (en) 2008-04-01 2008-04-01 Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same

Country Status (1)

Country Link
KR (1) KR101469280B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033316B1 (en) * 2009-11-19 2011-05-09 주식회사 티엘아이 Capacitive touch detect system
KR101646616B1 (en) 2010-11-30 2016-08-12 삼성전자주식회사 Apparatus and Method for Controlling Object
KR101763263B1 (en) 2010-12-24 2017-07-31 삼성전자주식회사 3d display terminal apparatus and operating method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060058732A (en) * 1998-01-26 2006-05-30 웨인 웨스터만 Method and apparatus for integrating manual input
KR20070036077A (en) * 2004-06-29 2007-04-02 코닌클리케 필립스 일렉트로닉스 엔.브이. Multi-layered display of a graphical user interface
KR20070044758A (en) * 2005-10-25 2007-04-30 엘지전자 주식회사 Mobile communication terminal having a touch panel and touch key pad and controlling method thereof
KR20070113022A (en) * 2006-05-24 2007-11-28 엘지전자 주식회사 Apparatus and operating method of touch screen responds to user input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060058732A (en) * 1998-01-26 2006-05-30 웨인 웨스터만 Method and apparatus for integrating manual input
KR20070036077A (en) * 2004-06-29 2007-04-02 코닌클리케 필립스 일렉트로닉스 엔.브이. Multi-layered display of a graphical user interface
KR20070044758A (en) * 2005-10-25 2007-04-30 엘지전자 주식회사 Mobile communication terminal having a touch panel and touch key pad and controlling method thereof
KR20070113022A (en) * 2006-05-24 2007-11-28 엘지전자 주식회사 Apparatus and operating method of touch screen responds to user input

Also Published As

Publication number Publication date
KR20090105160A (en) 2009-10-07

Similar Documents

Publication Publication Date Title
KR100984230B1 (en) Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR101480559B1 (en) Portable Terminal and Method for displaying and information in thereof
EP2104024B1 (en) Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR101047771B1 (en) Mobile terminal and control method of mobile terminal
KR101486581B1 (en) PORTABLE TERMINAL and DRIVING METHOD OF THE SAME
KR101386473B1 (en) Mobile terminal and its menu display method
KR101505198B1 (en) PORTABLE TERMINAL and DRIVING METHOD OF THE SAME
KR101570368B1 (en) Mobile terminal and menu display method thereof
EP2658227B1 (en) Exchange of hand-drawings on touch-devices
US20090322497A1 (en) Distinguishing input signals detected by a mobile terminal
KR20100001601A (en) Portable terminal capable of sensing proximity touch
US20140349628A1 (en) Portable terminal and method for controlling multilateral conversation
KR101469280B1 (en) Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
KR101519658B1 (en) Portable terminal
KR20100013420A (en) Digital camera and portable terminal comprising it
KR20100021859A (en) Portable terminal and driving method of the same
KR101488991B1 (en) Portable terminal and method for providing screen using the same
KR20090104469A (en) Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
KR101424818B1 (en) Portable terminal capable of sensing proximity touch and method for providing sliding function using the same
KR101457219B1 (en) Portable Terminal and Method for displaying and information in thereof
KR101495350B1 (en) Portable terminal capable of sensing proximity touch
KR101415764B1 (en) Mobile terminal and its menu location moving method
KR101488532B1 (en) Mobile Terminal and Method for Displaying Information therein
KR101559694B1 (en) PORTABLE TERMINAL and DRIVING METHOD OF THE SAME
KR101522427B1 (en) Portable terminal and driving method of the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171024

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee