KR101971067B1 - Method and apparatus for providing of user interface in portable device - Google Patents

Method and apparatus for providing of user interface in portable device Download PDF

Info

Publication number
KR101971067B1
KR101971067B1 KR1020120077301A KR20120077301A KR101971067B1 KR 101971067 B1 KR101971067 B1 KR 101971067B1 KR 1020120077301 A KR1020120077301 A KR 1020120077301A KR 20120077301 A KR20120077301 A KR 20120077301A KR 101971067 B1 KR101971067 B1 KR 101971067B1
Authority
KR
South Korea
Prior art keywords
input device
touch
touch input
stylus
detected
Prior art date
Application number
KR1020120077301A
Other languages
Korean (ko)
Other versions
KR20130024742A (en
Inventor
김태연
박미정
양구현
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US13/595,157 priority Critical patent/US20130050143A1/en
Priority to RU2014107746/08A priority patent/RU2014107746A/en
Priority to JP2012190182A priority patent/JP6309705B2/en
Priority to CA2846482A priority patent/CA2846482A1/en
Priority to PCT/KR2012/006914 priority patent/WO2013032234A1/en
Priority to AU2012302448A priority patent/AU2012302448A1/en
Priority to EP12182474.2A priority patent/EP2565752A3/en
Priority to BR112014005039A priority patent/BR112014005039A2/en
Priority to CN201210319914.5A priority patent/CN103092502B/en
Publication of KR20130024742A publication Critical patent/KR20130024742A/en
Priority to ZA2014/01837A priority patent/ZA201401837B/en
Application granted granted Critical
Publication of KR101971067B1 publication Critical patent/KR101971067B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 터치스크린에 터치 입력 장치의 접근이 감지되면, 상기 터치 입력 장치의 접근이 감지된 위치에 특정 기능을 수행하도록 유도하는 어포던스(Affordance) 이미지를 출력하는 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치에 관한 것으로, 상기 터치스크린 상에 터치 입력 장치의 접근이 감지되는지 확인하는 과정; 상기 터치 입력 장치의 접근 감지 시 상기 감지된 터치 입력 장치의 종류를 판별하는 과정; 및 상기 판별 결과 상기 터치 입력 장치가 스타일러스이면, 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 제1어포던스 이미지를 출력하는 과정을 포함하는 것을 특징으로 한다.The present invention provides a method and apparatus for providing a user interface of a mobile terminal that outputs an affordance image to guide a touch screen to perform a specific function at a location where the touch input device is detected. The method of claim 1, further comprising: checking whether a touch input device is detected on the touch screen; Determining a type of the detected touch input device when the touch input device detects an approach; And if the touch input device is a stylus, outputting a first affordance image corresponding to at least one function that may be performed using the stylus to an area where the approach of the stylus is detected. .

Figure R1020120077301
Figure R1020120077301

Description

휴대 단말기의 사용자 인터페이스 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING OF USER INTERFACE IN PORTABLE DEVICE}METHOD AND APPARATUS FOR PROVIDING OF USER INTERFACE IN PORTABLE DEVICE}

본 발명은 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치에 관한 것으로, 특히 터치스크린에 터치 입력 장치의 접근이 감지되면, 상기 터치 입력 장치에 대한 사용자 인터페이스를 제공하는 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for providing a user interface of a mobile terminal, and more particularly, to a method and apparatus for providing a user interface of a mobile terminal that provides a user interface for the touch input device when a touch input device is detected on a touch screen. It is about.

최근 정보통신 기술과 반도체 기술 등의 눈부신 발전에 힘입어 휴대 단말기의 보급과 이용이 급속도로 증가하고 있다. 특히, 최근의 휴대 단말기는 각자의 전통적인 고유 영역에 머무르지 않고 다른 단말기들의 영역까지 아우르는 모바일 융/복합(mobile convergence) 단계에 이르고 있다. 대표적으로 이동통신 단말기의 경우에는 음성통화나 메시지 송수신과 같은 일반적인 통신 기능 외에도 TV 시청 기능(예컨대, DMB(Digital Multimedia Broadcasting)나 DVB(Digital Video Broadcasting)와 같은 이동 방송), 음악 재생 기능(예컨대, MP3(MPEG Audio Layer-3), 사진 촬영 기능, 데이터 통신 기능, 인터넷 접속 기능 및 근거리 무선 통신 기능 등 다양한 기능들을 제공하고 있다. 이와 같이 다양한 기능을 제공함에 따라 상기 휴대 단말기를 보다 신속하고, 편리하게 제어할 필요성을 느끼게 되었다. 이로 인하여 최근에는 터치스크린을 구비하는 휴대 단말기가 증가하고 있다. 상기 터치스크린은 손가락 또는 스타일러스와 같은 터치 입력 장치의 접촉을 감지하고, 접촉된 위치를 산출할 수 있다. 예를 들어, 정전용량 방식의 터치스크린은 터치가 발생하면, 터치된 지점의 정전용량이 변하게 되고, 이러한 변화가 기 설정한 임계치(Threshold)를 초과할 경우 터치 이벤트가 발생한 것으로 판단하며, 정전 용량이 변화된 위치를 산출하는 알고리즘을 통해 터치 이벤트가 발생한 위치를 산출할 수 있다.Recently, thanks to the remarkable development of information and communication technology and semiconductor technology, the spread and use of portable terminals is increasing rapidly. In particular, recent portable terminals have reached the stage of mobile convergence that encompasses the range of other terminals instead of staying in their own traditional areas. In the case of a mobile communication terminal, in addition to general communication functions such as voice call and message transmission and reception, a TV viewing function (for example, a mobile broadcast such as Digital Multimedia Broadcasting (DMB) or Digital Video Broadcasting (DVB)) and a music playback function (for example, It provides various functions such as MP3 (MPEG Audio Layer-3), picture taking function, data communication function, internet access function and short range wireless communication function. As a result, portable terminals having a touch screen have been increasing in recent years, and the touch screen can detect a touch of a touch input device such as a finger or a stylus and calculate a touched position. For example, a capacitive touch screen is used to determine the touched point when a touch occurs. When the total amount changes, and when the change exceeds a preset threshold, it is determined that the touch event has occurred, and the position where the touch event occurs can be calculated through an algorithm for calculating the position where the capacitance changes.

한편, 종래 휴대 단말기에서는 터치스크린의 터치 입력 방식인 손가락 또는 스타일러스의 구분없이 동일한 사용자 인터페이스가 제공되고 있다. 이에 따라, 터치스크린상에 제공되는 사용자 인터페이스의 기능 또는 해당 기능의 이미지가 불필요하게 복잡한 구성을 가지는 문제점이 있다. 예를 들어, 손가락으로 터치 입력을 하는 경우, 터치 면적이 작은 스타일러스에 특화된 불필요한 기능이 표시될 수 있다.Meanwhile, in the conventional portable terminal, the same user interface is provided without distinguishing a finger or a stylus which is a touch input method of a touch screen. Accordingly, there is a problem in that a function of a user interface provided on the touch screen or an image of the corresponding function is unnecessarily complicated. For example, when a touch input is performed with a finger, unnecessary functions specialized for a stylus having a small touch area may be displayed.

또한, 종래의 휴대 단말기는 원하는 기능을 실행하기 위해, 사용자 인터페이스의 기능 화면을 표시하기 위한 터치 및 기능 화면상의 원하는 기능을 실행하기 위한 터치 등 복수의 터치 동작을 수행해야 하는 불편함이 존재한다.In addition, the conventional portable terminal is inconvenient to perform a plurality of touch operations such as a touch for displaying a function screen of a user interface and a touch for executing a desired function on a function screen in order to execute a desired function.

따라서 본 발명은 전술한 종래 기술의 문제점을 해결하기 위하여 창안된 것으로, 본 발명의 목적은 터치 입력 장치의 접근 감지 시 어포던스(Affordance) 이미지를 출력하는 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치를 제공하는 데 있다.Accordingly, the present invention has been made to solve the above-mentioned problems of the prior art, and an object of the present invention is to provide a method and apparatus for providing a user interface of a mobile terminal for outputting an affordance image when detecting an approach of a touch input device. There is.

본 발명의 다른 목적은 접근된 터치 입력 장치의 종류에 따라 서로 다른 어포던스(Affordance) 이미지를 출력하는 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치를 제공하는 데 있다.Another object of the present invention is to provide a method and apparatus for providing a user interface of a mobile terminal for outputting different affordance images according to the type of touch input device accessed.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법은 터치스크린 상에 터치 입력 장치의 접근이 감지되는지 확인하는 과정; 상기 터치 입력 장치의 접근 감지 시 상기 감지된 터치 입력 장치의 종류를 판별하는 과정; 및 상기 판별 결과 상기 터치 입력 장치가 스타일러스이면, 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 제1어포던스 이미지를 출력하는 과정을 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method for providing a user interface of a mobile terminal, the method including: checking whether a touch input device is detected on a touch screen; Determining a type of the detected touch input device when the touch input device detects an approach; And if the touch input device is a stylus, outputting a first affordance image corresponding to at least one function that may be performed using the stylus to an area where the approach of the stylus is detected. .

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 장치는 터치 입력 장치의 접근 및 터치를 인식하는 터치 패널; 상기 터치 입력 장치의 접근 감지 시 상기 감지된 터치 입력 장치의 종류를 판별하고, 상기 판별 결과 상기 터치 입력 장치가 스타일러스이면, 상기 스타일러스의 접근이 감지된 영역의 일측에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 제1어포던스 이미지를 출력하도록 제어하는 제어부; 및 상기 제1어포던스 이미지를 출력하는 표시 패널을 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a user interface providing apparatus for a mobile terminal, including: a touch panel configured to recognize an approach and a touch of a touch input device; When the touch input device detects an approach, the type of the detected touch input device is determined, and if the touch input device is a stylus, when the touch input device is a stylus, at least one side of the region where the access of the stylus is detected may be performed using the stylus. A controller which controls to output a first affordance image corresponding to one function; And a display panel configured to output the first affordance image.

본 발명의 다른 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법은 터치스크린을 포함하는 휴대 단말기의 사용자 인터페이스 제공 방법에 있어서, 스타일러스의 접근이 감지되는 과정; 및 상기 스타일러스의 접근 감지 시 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 어포던스 이미지를 출력하는 과정을 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of providing a user interface of a mobile terminal, the method including: providing a user interface of a mobile terminal including a touch screen, the method comprising: detecting an approach of a stylus; And outputting an affordance image corresponding to at least one function that can be performed by using the stylus in a region where the approach of the stylus is detected when the approach of the stylus is detected.

본 발명의 다른 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 장치는 스타일러스의 접근이 감지하는 터치스크린; 및 상기 스타일러스의 접근 감지 시 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 어포던스 이미지를 출력하도록 상기 터치스크린을 제어하는 제어부를 포함하는 것을 특징으로 한다.In accordance with another aspect of the present invention, an apparatus for providing a user interface of a mobile terminal includes: a touch screen sensing the approach of a stylus; And a controller configured to control the touch screen to output an affordance image corresponding to at least one function that can be performed using the stylus in a region where the stylus is detected when the approach of the stylus is detected.

이상에서 살펴본 바와 같이 본 발명의 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치는 터치스크린 상에 터치 입력 장치의 접근이 감지되는 경우 어포던스 이미지를 출력하고, 어포던스 이미지에 포함된 아이콘들 중 하나를 터치하여 원하는 기능을 수행할 수 있다. 따라서, 본 발명은 다수의 단계를 거치지 않고 원하는 기능을 빠르게 수행할 수 있다. 또한, 본 발명은 터치 입력 장치의 종류에 대응하는 어포던스 이미지를 출력할 수 있다. 이로 인하여 본 발명은 상황에 따라 적절한 어포던스 이미지를 제공하여 사용자의 편의성을 향상시킬 수 있다.As described above, the method and apparatus for providing a user interface of a mobile terminal according to an embodiment of the present invention output an affordance image when a touch input device is detected on a touch screen, and one of the icons included in the affordance image. Touch to perform the desired function. Thus, the present invention can quickly perform a desired function without going through a number of steps. In addition, the present invention may output the affordance image corresponding to the type of the touch input device. For this reason, the present invention can improve the user's convenience by providing an appropriate affordance image according to the situation.

도 1은 본 발명의 실시 예에 따른 휴대 단말기의 구성 및 스타일러스를 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 터치 입력 장치의 접근을 감지하는 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 실시 예에 따른 일정 관리 화면에서 스타일러스 접근 시 어포던스 이미지를 제공하는 인터페이스의 예를 도시한 화면 예시도이다.
도 5는 본 발명의 실시 예에 따른 홈 화면에서 스타일러스 접근 시 어포던스 이미지를 제공하는 인터페이스의 예를 도시한 화면 예시도이다.
도 6은 본 발명의 실시 예에 따른 주소록 화면에서 스타일러스 접근 시 어포던스 이미지를 제공하는 인터페이스의 예를 도시한 화면 예시도이다.
1 is a diagram schematically illustrating a configuration and a stylus of a portable terminal according to an exemplary embodiment of the present invention.
FIG. 2 is a diagram for describing a method of detecting an approach of a touch input device according to an exemplary embodiment.
3 is a flowchart illustrating a user interface providing method of a portable terminal according to an exemplary embodiment of the present invention.
4 is an exemplary view illustrating an interface for providing an affordance image when a stylus approaches a schedule management screen according to an embodiment of the present invention.
FIG. 5 illustrates an example of an interface for providing an affordance image when a stylus approaches a home screen according to an exemplary embodiment of the present invention.
6 is an exemplary screen diagram illustrating an example of an interface for providing an affordance image when a stylus is accessed from an address book screen according to an exemplary embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that like elements are denoted by like reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may blur the gist of the present invention will be omitted.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to easily explain the technical contents of the present invention and help the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

상세한 설명에 앞서, 이하 본 발명의 실시 예에 따른 휴대 단말기는 터치스크린을 구비하는 전자 기기로써, 이동 통신 단말기, 개인 정보 단말기(PDA), 스마트 폰(Smart Phone), 테블릿(Tablet) PC(Personal Computer), PMP(Portable Multimedia Player) 등을 포함할 수 있다.Prior to the detailed description, a portable terminal according to an embodiment of the present invention is an electronic device having a touch screen, and includes a mobile communication terminal, a personal digital assistant (PDA), a smart phone, and a tablet PC ( Personal Computer), PMP (Portable Multimedia Player) and the like.

도 1은 본 발명의 실시 예에 따른 휴대 단말기(100)의 구성 및 스타일러스(200)를 개략적으로 도시한 도면이고, 도 2는 본 발명의 실시 예에 따른 터치 입력 장치의 접근을 감지하는 방법을 설명하기 위한 도면이다.1 is a diagram schematically illustrating a configuration of a mobile terminal 100 and a stylus 200 according to an exemplary embodiment of the present invention, and FIG. 2 is a method of detecting proximity of a touch input device according to an exemplary embodiment of the present invention. It is a figure for demonstrating.

상기 도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 휴대 단말기(100)는 무선 통신부(140), 터치스크린(130), 저장부(120) 및 제어부(110)의 구성을 포함할 수 있다. 상기 터치스크린(130)은 표시패널(131) 및 터치패널(132)을 포함할 수 있다.1 and 2, the mobile terminal 100 according to an embodiment of the present invention may include a configuration of a wireless communication unit 140, a touch screen 130, a storage unit 120, and a controller 110. Can be. The touch screen 130 may include a display panel 131 and a touch panel 132.

상기 스타일러스(Stylus, 200)는 전자 유도 방식 터치 패널에서 사용 가능한 펜 형태의 터치입력장치이다. 이를 위하여, 상기 스타일러스(200)는 공진 회로를 포함할 수 있다. 상기 공진회로는 터치스크린(130)에서 발생하는 전자기장(ElectroMagnetic Field)에 의해 공진되며, 상기 공진으로 인하여 유도 전류를 생성할 수 있다. 상기 공진에 의해 생성된 유도 전류는 터치스크린(130)에 전류 변화를 초래할 수 있다. 즉, 상기 유도 전류에 의한 전류의 변화를 통해 터치스크린(130)은 스타일러스(200)의 접근 및 터치를 인식할 수 있다. 이와 같은 스타일러스(200)는 본 발명의 기술 분야에서 통상의 기술을 가진 자에게 있어 자명하며, 공지된 것으로 상세한 설명을 생략하기로 한다.The stylus 200 is a pen-type touch input device that can be used in an electromagnetic induction touch panel. To this end, the stylus 200 may include a resonant circuit. The resonant circuit is resonated by an electromagnetic field generated by the touch screen 130, and may generate an induced current due to the resonance. Induced current generated by the resonance may cause a current change in the touch screen 130. That is, the touch screen 130 may recognize the approach and the touch of the stylus 200 through the change of the current caused by the induced current. Such stylus 200 is apparent to those skilled in the art of the present invention, it will be known and will not be described in detail.

상기 무선 통신부(140)는 기지국과 통화(음성 통화 및 화상 통화 포함)를 위한 통신 채널 및 데이터 전송을 위한 데이터 통신 채널 등을 형성할 수 있다. 이를 위하여, 상기 무선 통신부(140)는 송신되는 신호의 주파수 상승 변환 및 증폭하는 무선주파수 송신부(미도시), 수신되는 신호를 저잡음 증폭하고 주파수 하강 변환하는 무선주파수 수신부(미도시) 및 수신 신호와 송신 신호를 분리하는 송수신 분리부(미도시) 등을 포함할 수 있다.The wireless communication unit 140 may form a communication channel for a call (including a voice call and a video call) and a data communication channel for data transmission with the base station. To this end, the wireless communication unit 140 includes a radio frequency transmitter (not shown) for up-converting and amplifying a transmitted signal, a radio frequency receiver (not shown) for low noise amplifying and down-converting a received signal, and a received signal. It may include a transmission and reception separation unit (not shown) for separating the transmission signal.

상기 터치스크린(130)은 입력 기능 및 출력 기능을 수행할 수 있다. 이를 위하여 상기 터치스크린(130)은 출력 기능을 수행하는 표시패널(131) 및 입력 기능을 수행하는 터치패널(132)을 포함할 수 있다. 상기 터치 패널(132)은 전자 유도 방식 및 정전 용량 방식이 결합된 복합 터치 패널로 형성될 수 있다. 또는, 상기 터치 패널(132)은 전자 유도 방식 및 감압 방식이 결합된 복합 터치 패널로 형성될 수 있다.The touch screen 130 may perform an input function and an output function. To this end, the touch screen 130 may include a display panel 131 that performs an output function and a touch panel 132 that performs an input function. The touch panel 132 may be formed as a composite touch panel in which an electromagnetic induction method and a capacitive method are combined. Alternatively, the touch panel 132 may be formed as a composite touch panel in which an electromagnetic induction method and a pressure reduction method are combined.

상기 터치 패널(132)은 표시패널(131)의 전면에 장착되며, 터치입력장치 예컨대 사용자의 손가락 또는 스타일러스(200) 등의 접촉에 따라 터치 이벤트를 생성하고, 생성된 터치 이벤트를 제어부(110)에 전달할 수 있다. 상기 터치패널(132)은 터치 입력 장치의 접촉에 따른 물리량(예컨대 정전 용량, 전류 등)의 변화를 통해 터치를 인식하고, 터치의 종류(탭, 드래그, 플릭, 더블 터치, 롱 터치, 멀티 터치 등) 및 터치된 위치 정보를 제어부(110)에 전달할 수 있다. 이러한 상기 터치 패널(132)은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 있어 자명한 것이므로 상세한 설명은 생략하기로 한다. 특히, 본 발명에 따른 터치 패널(132)은 터치 입력 장치의 접근, 터치, 접근 해제 및 터치 해제를 감지할 수 있다. 이에 대하여,상기 도 2를 참조하여 설명하면, 터치 패널(132)의 정전 용량(C) 또는 전류(I)는 터치 입력 장치가 서서히 접근하여, 접촉된 후 접촉이 해제될 시 상기 도 2에 도시된 그래프와 같이 변화된다. 여기서, 상기 정전 용량(C) 또는 전류(I)의 변화가 제1기준값(A)이상이면, 상기 터치 패널(132)은 터치 입력 장치의 접근(예컨대 1 ~ 2 cm)을 인식하고, 상기 정전 용량(C) 또는 전류(I)의 변화가 제2기준값(B)이상이면, 터치 입력 장치가 터치 패널(132)에 접촉(터치)된 것으로 인식할 수 있다.The touch panel 132 is mounted on the front surface of the display panel 131, generates a touch event according to a touch of a touch input device such as a user's finger or stylus 200, and controls the generated touch event to be controlled by the controller 110. Can be delivered to. The touch panel 132 recognizes a touch through a change in physical quantity (eg, capacitance, current, etc.) according to the touch of the touch input device, and types of touch (tap, drag, flick, double touch, long touch, multi-touch). And the like) and the touched location information may be transmitted to the controller 110. Since the touch panel 132 is obvious to those skilled in the art, a detailed description thereof will be omitted. In particular, the touch panel 132 according to the present invention may detect an approach, a touch, an access release, and a touch release of the touch input device. In contrast, referring to FIG. 2, the capacitance C or the current I of the touch panel 132 is shown in FIG. 2 when the touch input device is gradually approached and the contact is released after the contact is made. The graph changes as shown. Here, if the change in the capacitance (C) or current (I) is greater than or equal to the first reference value (A), the touch panel 132 recognizes the approach (for example, 1 ~ 2 cm) of the touch input device, and the electrostatic When the change in the capacitance C or the current I is greater than or equal to the second reference value B, the touch input device may be recognized as being in contact with the touch panel 132.

한편, 정전 용량(C) 변화 및 전류(I) 변화에 대하여 상기 도 2의 동일한 그래프를 이용하여 설명하였지만, 이는 설명의 편의를 위한 것으로, 실제로 정전 용량(C)의 변화 그래프와 전류(I)의 변화 그래프는 유사한 형태를 가질 뿐 상기 도 2와 완전하게 동일하지 않음은 본 발명의 통상의 지식을 가진 자에게 있어 자명할 것이다. 이때, 상기 터치 패널(132)이 정전 용량 방식의 터치 패널과 전자 유도 방식의 터치 패널로 형성된 복합 터치 패널인 경우 상기 정전 용량 방식의 터치 패널은 손가락의 접근, 접촉(터치) 및 접촉(터치) 해제를 감지하고, 상기 전자 유도 방식의 터치 패널은 스타일러스(200)의 접근, 접촉(터치) 및 접촉(터치) 해제를 감지할 수 있다.On the other hand, a change in capacitance (C) and a change in current (I) have been described using the same graph of FIG. 2, but this is for convenience of explanation, and in fact, the change graph of capacitance (C) and current (I) It will be apparent to those of ordinary skill in the art that the graph of change of the present invention has a similar form but is not completely the same as that of FIG. In this case, when the touch panel 132 is a composite touch panel formed of a capacitive touch panel and an electromagnetic induction touch panel, the capacitive touch panel may be touched, touched (touched), or touched (touched) by a finger. Detecting the release, the electromagnetic induction type touch panel may detect the approach, contact (touch) and contact (touch) release of the stylus 200.

한편, 스타일러스(200)의 접근 감지 시에만 어포던스 이미지를 출력하도록 하고자 하는 경우 상기 터치 패널(132)은 전자 유도 방식의 터치 패널 및 감압 방식의 터치 패널이 결합된 복합 터치 패널이 될 수도 있다.상기 표시 패널(131)은 휴대 단말기(100)의 각종 메뉴를 비롯하여 사용자가 입력한 정보 또는 사용자에게 제공하는 정보를 표시한다. 즉, 표시 패널(131)은 휴대 단말기(100)의 이용에 따른 다양한 화면 예를 들면, 대기 화면(홈 화면), 메뉴 화면, 메시지 작성 화면, 통화 화면, 일정 관리 화면, 주소록 화면 등을 제공할 수 있다. 특히, 본 발명의 표시 패널(131)은 제어부(110)의 제어 하에 터치 입력 장치의 접근 감지 시 어포던스 이미지를 출력할 수 있다. 이에 대한 설명은 화면 예시도를 참조하여 후술하기로 한다. 이러한 표시 패널(131)은 액정 표시 장치(Liquid Crystal Display : LCD), OLED(Organic Light Emitted Diode), AMOLED(Active Matrix Organic Light Emitted Diode) 등으로 형성될 수 있다.On the other hand, when it is desired to output the affordance image only when the stylus 200 approaches detection, the touch panel 132 may be a composite touch panel in which an electromagnetic induction type touch panel and a pressure sensitive type touch panel are combined. The display panel 131 displays various menus of the mobile terminal 100, information input by the user, or information provided to the user. That is, the display panel 131 may provide various screens according to the use of the mobile terminal 100, for example, a standby screen (home screen), a menu screen, a message writing screen, a call screen, a schedule management screen, and an address book screen. Can be. In particular, the display panel 131 of the present invention can output an affordance image when the touch input device detects an approach under the control of the controller 110. The description thereof will be described later with reference to the screen example. The display panel 131 may be formed of a liquid crystal display (LCD), an organic light emitting diode (OLED), an active matrix organic light emitting diode (AMOLED), or the like.

상기 저장부(120)는 휴대 단말기(100)의 운영체제(OS, Operating System)를 비롯하여, 기타 옵션(options) 기능 예컨대, 소리 재생 기능, 이미지 또는 동영상 재생 기능, 방송 재생 기능 등에 필요한 응용 프로그램을 비롯하여, 사용자 데이터 및 통신 시 송수신되는 데이터 등을 저장할 수 있다. 예를 들어, 상기 저장부(120)는 터치스크린(130) 운용을 위한 키 맵이나 메뉴 맵 등을 저장할 수 있다. 여기서 키 맵, 메뉴 맵은 각각 다양한 형태로 구성될 수 있다. 예를 들어, 상기 키맵은 키보드 맵이나, 3*4 키 맵, 쿼티 키 맵 등이 될 수 있고, 현재 활성화되고 있는 응용 프로그램의 운용 제어를 위한 제어키 맵이 될 수 도 있다. 또한, 상기 메뉴 맵은 현재 활성화되고 있는 응용 프로그램 운용 제어를 위한 메뉴 맵이 될 수 있다. 또한, 상기 저장부(120)는 문자 메시지, 게임 파일, 음악 파일, 영화 파일, 연락처 등을 저장할 수 있다. 특히, 본 발명에 따른 저장부(120)는 터치 입력 장치 접근 시 어포던스 이미지를 출력하는 프로그램을 저장할 수 있다. 상기 어포던스 이미지는 터치 입력 장치가 접근한 아이템의 종류 및 터치 입력 장치의 종류에 따라 달라질 수 있다. 예를 들어, 일정 관리 화면의 특정 일정에 스타일러스(200)가 접근하는 경우 상기 어포던스 이미지는 일정의 기한 변경 기능이 설정된 기한 변경 이미지가 되고, 홈 화면의 특정 아이콘에 스타일러스(200)가 접근하는 경우 상기 어포던스 이미지는 아이콘의 이동 기능이 설정된 이동 어포던스 이미지가 될 수 있다. 또는, 상기 주소록 화면의 특정 연락처에 스타일러스(200)가 접근하는 경우 상기 어포던스 이미지는 자주 사용하는 기능 즉, 통화 아이콘, 문자 아이콘, 이메일 아이콘 및 인스턴트 메시지 아이콘 등을 포함하는 기능 어포던스 이미지가 될 수 있다. 한편, 상기 일정 관리 화면의 특정 일정에 손가락이 접근하는 경우 상기 어포던스 이미지는 일정 삭제 기능이 설정된 삭제 어포던스 이미지가 되고, 홈 화면의 특정 아이콘에 손가락이 접근하는 경우 상기 어포던스 이미지는 아이콘 복사기능이 설정된 복사 어포던스 이미지가 될 수 있으며, 상기 주소록 화면의 특정 연락처에 손가락이 접근하는 경우 상기 어포던스 이미지는 출력되지 않을 수 있다. 하지만, 이는 일 예 일뿐 본 발명을 한정하지는 않는다. 즉, 상기 터치 입력 장치의 접근 시 출력되는 어포던스 이미지에 설정되는 기능은 설계자의 의도에 따라 다양하게 변경될 수 있으며, 스타일러스(200)의 접근이 감지되었을 경우에만 어포던스 이미지가 출력되도록 할 수도 있다.The storage unit 120 may include an operating system (OS) of the mobile terminal 100, an application program required for other option functions such as a sound play function, an image or video play function, a broadcast play function, and the like. User data and data transmitted / received during communication may be stored. For example, the storage unit 120 may store a key map or a menu map for operating the touch screen 130. Here, the key map and the menu map may be configured in various forms. For example, the key map may be a keyboard map, a 3 * 4 key map, a QWERTY key map, or the like, or may be a control key map for operation control of an currently activated application program. In addition, the menu map may be a menu map for controlling an application program currently being activated. In addition, the storage unit 120 may store text messages, game files, music files, movie files, contacts, and the like. In particular, the storage unit 120 according to the present invention may store a program for outputting the affordance image when the touch input device approaches. The affordance image may vary depending on the type of an item accessed by the touch input device and the type of the touch input device. For example, when the stylus 200 approaches a specific schedule of a schedule management screen, the affordance image becomes a due date change image in which a deadline change function of a schedule is set, and when the stylus 200 approaches a specific icon on a home screen. The affordance image may be a moving affordance image in which an icon moving function is set. Alternatively, when the stylus 200 approaches a specific contact on the address book screen, the affordance image may be a function affordance image including a frequently used function, that is, a call icon, a text icon, an email icon, and an instant message icon. . Meanwhile, when a finger approaches a specific schedule of the schedule management screen, the affordance image becomes a delete affordance image with a schedule delete function set, and when the finger approaches a specific icon on a home screen, the affordance image sets an icon copy function. It may be a copy affordance image, and when the finger approaches a specific contact on the address book screen, the affordance image may not be output. However, this is merely an example and does not limit the present invention. That is, the function set in the affordance image output when the touch input device approaches may be variously changed according to a designer's intention, and the affordance image may be output only when the approach of the stylus 200 is detected.

한편, 상기 저장부(120)는 상기 어포던스 이미지를 표시하는 어포던스 표시 모드의 온/오프(ON/OFF)를 설정하며, 어포던스 이미지에 설정된 기능을 변경하는 프로그램을 저장할 수 있다. 즉, 상기 프로그램은 사용자가 어포던스 이미지 표시 모드를 활성화한 경우에만 터치 입력 장치의 접근 시 어포던스 이미지를 출력할 수 있다. 또한, 상기 프로그램은 어포던스 이미지에 설정된 기능을 사용자가 요청한 기능으로 변경할 수 있다.On the other hand, the storage unit 120 may set the ON / OFF of the affordance display mode for displaying the affordance image, and may store a program for changing a function set in the affordance image. That is, the program may output the affordance image when the touch input device approaches only when the user activates the affordance image display mode. In addition, the program may change the function set in the affordance image to a function requested by the user.

상기 제어부(110)는 휴대 단말기(100)의 전반적인 동작 및 휴대 단말기(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 특히, 본 발명에 따른 제어부(110)는 터치 입력 장치의 접근 감지 시 기 설정된 어포던스 이미지를 출력하고, 상기 어포던스 이미지상에 터치 이벤트가 발생하는 경우 상기 어포던스 이미지에 설정된 기능을 수행하도록 상기 각 구성을 제어할 수 있다. 이때, 상기 제어부(110)는 터치스크린(130)에 접근된 터치 입력 장치의 종류(예컨대 손가락 또는 스타일러스(200))에 따라 다른 어포던스 이미지를 출력할 수 있다. 이와 같은 제어부(110)의 상세한 설명은 도 2 내지 도 6을 참조하여 설명하기로 한다.The controller 110 may control an overall operation of the mobile terminal 100 and a signal flow between internal blocks of the mobile terminal 100 and perform a data processing function for processing data. In particular, the control unit 110 according to the present invention outputs a predetermined affordance image when the touch input device detects an access, and when the touch event occurs on the affordance image, the controller 110 performs the respective functions to perform the function set in the affordance image. Can be controlled. In this case, the controller 110 may output different affordance images according to the type (eg, finger or stylus 200) of the touch input device approaching the touch screen 130. The detailed description of the control unit 110 will be described with reference to FIGS. 2 to 6.

한편, 상기 도 1에 도시하지 않았지만 상기 휴대 단말기(100)는 근거리 무선 통신을 위한 근거리 통신 모듈, 방송 수신을 위한 방송 수신 모듈, MP3 모듈과 같은 디지털 음원 재생 모듈 및 인터넷 기능을 수행하는 인터넷 통신 모듈 등의 부가 기능을 갖는 구성 요소들을 선택적으로 더 포함할 수 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 본 발명에 따른 휴대 단말기(100)는 상기 언급된 구성 요소들과 동등한 수준의 구성 요소들을 더 포함할 수 있다.Although not shown in FIG. 1, the portable terminal 100 may include a short range communication module for short range wireless communication, a broadcast receiving module for broadcast reception, a digital sound source reproducing module such as an MP3 module, and an internet communication module for performing Internet functions. Optionally, further include components having additional functions such as. These components may not be enumerated because all of them vary according to the convergence trend of digital devices. However, the mobile terminal 100 according to the present invention may further include components of the same level as those mentioned above. It may include.

도 3은 본 발명의 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법을 설명하기 위한 순서도이다. 이하에서는 정전 용량 방식 및 전자 유도 방식의 터치 패널이 결합된 복합 터치 패널을 예로 하여 설명하기로 한다.3 is a flowchart illustrating a user interface providing method of a portable terminal according to an exemplary embodiment of the present invention. Hereinafter, a composite touch panel in which a capacitive type touch panel and an electromagnetic induction type touch panel are combined will be described as an example.

상기 도 1 내지 도 3을 참조하면, 본 발명의 실시 예에 따른 휴대 단말기(100)의 제어부(110)는 301 단계에서 전원부로부터 공급되는 전원을 휴대 단말기(100)의 각 구성에 공급하도록 제어할 수 있다. 이후, 상기 제어부(110)는 303 단계에서 터치 입력 장치(예컨대 스타일러스(200), 손가락 등)의 접근이 감지되는지 확인할 수 있다. 상세하게는, 상기 터치 입력 장치가 터치스크린(130)에 접근하면, 정전 용량 또는 전류의 변화가 발생한다. 상기 터치 패널(132)은 상기 정전 용량 또는 전류의 변화를 감지하고, 이를 제어부(110)에 전달한다. 상기 전달받은 정전 용량 또는 전류 변화가 제1기준값 이상인 경우 상기 제어부(110)는 터치스크린(130)의 일정 영역에 터치 입력 장치가 접근한 것으로 판단할 수 있다. 이때, 상기 제어부(110)는 터치 입력 장치의 접근이 감지된 위치를 산출할 수 있다.1 to 3, the control unit 110 of the portable terminal 100 according to an embodiment of the present invention controls to supply power supplied from the power supply unit to each component of the portable terminal 100 in step 301. Can be. In operation 303, the controller 110 may determine whether an approach of the touch input device (eg, the stylus 200 or a finger) is detected. In detail, when the touch input device approaches the touch screen 130, a change in capacitance or current occurs. The touch panel 132 detects a change in capacitance or current and transfers it to the controller 110. When the received capacitance or current change is greater than or equal to the first reference value, the controller 110 may determine that the touch input device approaches a predetermined region of the touch screen 130. In this case, the controller 110 may calculate a position where the approach of the touch input device is detected.

상기 터치 입력 장치의 접근이 감지되지 않으면, 상기 제어부(110)는 303 단계를 유지할 수 있다. 반면에, 상기 터치 입력 장치의 접근이 감지되면, 상기 제어부(110)는 305 단계에서 접근이 감지된 터치 입력 장치의 종류를 판별할 수 있다. 예를 들어, 상기 제어부(110)는 감지된 터치 입력 장치가 스타일러스(200)인지 손가락인지 판별할 수 있다. 상기 터치 입력 장치의 종류 판별은 공지된 다양한 기술을 이용할 수 있다. 이를 위하여, 상기 제어부(110)는 정전 용량 방식의 터치 패널에서 접근이 감지되는 경우 손가락이 접근한 것으로 판별하고, 전자 유도 방식의 터치 패널에서 접근이 감지되는 경우 스타일러스(200)가 접근한 것으로 판별할 수 있다. 하지만 본 발명이 이에 한정되지는 않는다. 즉, 본 발명은 상기 터치 입력 장치의 종류를 판별하는 기술로 공지된 다양한 기술을 이용할 수 있다.If the proximity of the touch input device is not detected, the controller 110 may maintain step 303. On the other hand, when the approach of the touch input device is detected, the controller 110 may determine the type of the touch input device from which the approach is detected in step 305. For example, the controller 110 may determine whether the detected touch input device is the stylus 200 or the finger. The determination of the type of the touch input device may use various known techniques. To this end, the controller 110 determines that a finger has approached when approaching is detected in the capacitive touch panel, and that the stylus 200 has approached when approaching is detected in the electromagnetic induction touch panel. can do. However, the present invention is not limited thereto. That is, the present invention may use various techniques known as techniques for determining the type of the touch input device.

상기 판별 결과, 스타일러스(200)인 경우 즉, 전자기 유도 방식의 터치 패널을 통해 스타일러스의 접근이 감지된 경우 상기 제어부(110)는 307 단계에서 접근이 감지된 위치에 제1어포던스 이미지를 출력할 수 있다. 상기 제1어포던스 이미지는 스타일러스(200)에 특화된 기능(즉, 정교한 터치가 요구되는 기능)의 수행을 유도하는 적어도 하나의 아이콘을 포함할 수 있다. 이에 대한 상세한 설명은 도 4 내지 도 6을 참조하여 후술하기로 한다.As a result of the determination, in the case of the stylus 200, that is, when the approach of the stylus is detected through the electromagnetic induction type touch panel, the controller 110 may output the first affordance image at a position where the approach is detected in step 307. have. The first affordance image may include at least one icon that induces the performance of a function specific to the stylus 200 (that is, a function requiring a sophisticated touch). Detailed description thereof will be described later with reference to FIGS. 4 to 6.

반면에, 상기 판별 결과 스타일러스(200)가 아닌 경우 즉, 정전 용량 방식의터치 패널을 통해 손가락 접근이 감지되는 경우 상기 제어부(110)는309 단계에서 상기 제1어포던스 이미지와 구분되는 제2어포던스 이미지를 출력할 수 있다. 상기 제2어포던스 이미지는 스타일러스(200)와 같이 정교한 터치를 요하지 않는 기능을 포함할 수 있다.On the other hand, when the determination result is not the stylus 200, that is, when a finger approach is detected through the capacitive touch panel, the control unit 110 separates the second affordance image from the first affordance image in step 309. You can output The second affordance image may include a function that does not require elaborate touch, such as the stylus 200.

다음으로, 상기 제어부(110)는 311 단계에서 터치 입력 신호가 발생하는지 확인할 수 있다. 이를 위하여, 상기 제어부(110)는 터치된 것으로 판단하기 위하여 기 설정된 제2기준값 이상으로 정전 용량 또는 전류 변화가 발생하는지 확인할 수 있다. 이때, 상기 307 단계에서 진행한 경우 상기 311 단계는 제1어포던스 이미지 표시 영역 또는 타 영역에서 터치 이벤트가 발생하는지 확인하는 단계이고, 상기 309 단계에서 진행한 경우 상기 311 단계는 제2어포던스 이미지 표시 영역 또는 타 영역에서 터치 이벤트가 발생하는지 확인하는 단계가 된다.Next, the controller 110 may check whether a touch input signal is generated in step 311. To this end, the controller 110 may determine whether a change in capacitance or current occurs above the preset second reference value in order to determine that the touch has occurred. In this case, in step 307, step 311 is a step of checking whether a touch event occurs in the first affordance image display area or another area, and in step 309, step 311 is a second affordance image display area. Or checking whether a touch event occurs in another area.

상기 터치 입력 신호가 발생하지 않으면, 상기 제어부(110)는 315 단계에서 터치 입력 장치의 접근 해제에 대응하는 신호가 입력되는지 확인할 수 있다. 상기 터치 입력 장치의 접근 해제에 대응하는 신호가 입력되는 경우 상기 제어부(110)는 317 단계에서 제1어포던스 이미지 또는 제2어포던스 이미지를 제거하고, 303 단계로 복귀하여 상술한 과정을 반복할 수 있다. If the touch input signal does not occur, the controller 110 may determine whether a signal corresponding to the access release of the touch input device is input in step 315. When the signal corresponding to the access release of the touch input device is input, the controller 110 may remove the first affordance image or the second affordance image in step 317, and return to step 303 to repeat the above-described process. .

반면에, 상기 터치 입력 신호가 발생하면, 상기 제어부(110)는 313 단계에서 입력된 터치 신호에 대응하는 기능을 수행하도록 제어할 수 있다. 예를 들어, 상기 제어부(110)는 상기 제1어포던스 이미지에 터치 이벤트가 발생하는 경우 제1어포던스 이미지에 설정된 기능을 수행하고, 상기 제2어포던스 이미지에서 터치 이벤트가 발생하는 경우 제2어포던스 이미지에 설정된 기능을 수행하며, 상기 타 영역(예컨대 아이템)에서 터치 이벤트가 발생하는 경우 상기 타 영역에 설정된 기능을 수행할 수 있다. 상기 입력된 터치 신호에 대응하는 기능의 수행이 완료되면, 상기 제어부(110)는 303 단계로 복귀하여 상술한 과정을 반복적으로 수행할 수 있다.On the other hand, when the touch input signal is generated, the controller 110 may control to perform a function corresponding to the touch signal input in step 313. For example, when the touch event occurs in the first affordance image, the controller 110 performs a function set in the first affordance image. When the touch event occurs in the second affordance image, the controller 110 performs a function on the second affordance image. When the touch event occurs in the other area (for example, an item), the user may perform the function set in the other area. When the execution of the function corresponding to the input touch signal is completed, the controller 110 may return to step 303 to repeatedly perform the above-described process.

한편, 상기 터치 입력 장치의 접근이 감지되어 제1어포던스 이미지 또는 제2어포던스 이미지가 출력된 상태에서 터치스크린(130)의 터치가 감지되지 않고 상기 터치 입력 장치의 이동이 감지되는 경우 상기 제어부(110)는 상기 터치 입력 장치의 이동에 따라 제1어포던스 이미지 또는 제2어포던스 이미지가 이동되도록 제어할 수 있다. 또는, 상기 터치 입력 장치가 이동되는 경우 상기 터치 입력 장치의 접근이 감지된 위치에 존재하는 아이템의 속성에 따라 상기 어포던스 이미지가 변경될 수 있다. 예를 들어, 상기 터치 입력 장치가 음악 파일 아이템 상에 접근이 감지되는 경우, 음악 재생과 관련된 기능(재생, 중지, 재생 파일 리스트에 추가 등)을 포함하는 어포던스 이미지가 출력되고, 상기 터치 입력 장치가 개별 사용자의 연락처에 대한 바로가기 아이템 상으로 이동되는 경우 연락처와 관련된 기능(통화, 문자, 이메일 등)을 포함하는 어포던스 이미지를 출력할 수 있다.In the meantime, when the touch input device is approached and the first affordance image or the second affordance image is output, the touch of the touch screen 130 is not detected and the movement of the touch input device is sensed. ) May control the first affordance image or the second affordance image to be moved according to the movement of the touch input device. Alternatively, when the touch input device is moved, the affordance image may be changed according to an attribute of an item existing at a position where the approach of the touch input device is detected. For example, when the touch input device detects an access on a music file item, an affordance image including a function related to music playback (play, pause, add to a play file list, etc.) is output, and the touch input device is output. Is moved onto a shortcut item for an individual user's contact, it is possible to output an affordance image including a function related to the contact (call, text, email, etc.).

또한, 상기 도 3에서 터치스크린(130)에 접근한 터치 입력 장치가 스타일러스(200)가 아닌 경우 즉, 정전 용량 방식의 터치 패널을 통해 손가락 접근이 감지된 경우 상기 제어부(110)가 제2어포던스 이미지가 출력되도록 제어하는 것으로 설명하였지만, 본 발명의 다른 실시 예에서는 상기 스타일러스가 아닌 터치 입력 장치(예컨대 손가락)의 접근이 무시되도록 처리할 수도 있다. 예를 들어, 상기 제어부(110)는 스타일러스(200)가 아닌 터치 입력 장치가 접근하는 경우, 아무런 이미지도 출력되지 않도록 제어할 수 있다. 즉, 본 발명의 다른 실시 예에 따른 상기 제어부(110)는 스타일러스(200)의 접근이 감지되었을 때만 기 설정된 어포던스 이미지가 출력되도록 제어할 수 있다. 이와 같이 스타일러스(200)의 접근이 감지되었을 때만 어포던스 이미지를 출력하는 경우 상기 터치 패널(132)은 스타일러스(200)의 접근을 감지하기 위한 전자기 유도 방식의 터치 패널과 손가락의 터치를 감지할 수 있는 다양한 방식(예컨대 정전 용량 방식, 감압 방식)의 터치 패널이 결합된 복합 터치 패널로 형성될 수 있다.In addition, in FIG. 3, when the touch input device approaching the touch screen 130 is not the stylus 200, that is, when a finger approaching is detected through the capacitive touch panel, the controller 110 has a second affordance. Although described as controlling to output an image, in another embodiment of the present invention, the touch input device (for example, a finger) other than the stylus may be processed to be ignored. For example, the controller 110 may control not to output any image when the touch input device other than the stylus 200 approaches. That is, the controller 110 according to another embodiment of the present invention may control the preset affordance image to be output only when the approach of the stylus 200 is detected. When the affordance image is output only when the approach of the stylus 200 is detected as described above, the touch panel 132 may sense a touch of an electromagnetic induction type touch panel and a finger for sensing the approach of the stylus 200. The touch panel of various methods (eg, capacitive type, pressure sensitive type) may be formed as a combined touch panel.

또한, 본 발명은 상기 301 단계 이후 또는 303 단계 이후 어포던스 이미지 표시 모드가 활성화되었는지 확인하는 과정을 더 포함할 수 있다. 상기 확인 결과 상기 어포던스 이미지 표시 모드가 활성화된 경우 상기 제어부(110)는 이 후의 과정을 수행하고, 어포던스 이미지 표시 모드가 활성화되지 않은 경우 터치스크린(130)에서 발생하는 터치 이벤트만을 감지하고, 감지된 터치 이벤트에 따른 기능을 수행할 수 있다.The present invention may further include checking whether the affordance image display mode is activated after step 301 or after step 303. If the affordance image display mode is activated, the controller 110 performs the following process. If the affordance image display mode is not activated, the controller 110 detects only a touch event occurring in the touch screen 130 and detects the detected touch event. A function according to a touch event can be performed.

도 4는 본 발명의 실시 예에 따른 일정 관리 화면에서 스타일러스 접근 시 어포던스 이미지를 제공하는 인터페이스의 예를 도시한 화면 예시도이다.4 is an exemplary view illustrating an interface for providing an affordance image when a stylus approaches a schedule management screen according to an embodiment of the present invention.

상기 도 1 내지 도 4를 참조하면, 본 발명의 실시 예에 따른 표시 패널(131)은 일정 관리 화면을 표시하도록 지원할 수 있다. 상기 일정 관리 화면은 식별 부호 410의 화면 예시도에 도시된 바와 같이 사용자가 기 등록한 다수의 일정을 날짜 및 시간으로 구분하여 표시할 수 있다.1 to 4, the display panel 131 according to an exemplary embodiment may support displaying a schedule management screen. The schedule management screen may display a plurality of schedules pre-registered by the user by date and time as shown in the screen example of the identification code 410.

상기 일정 관리 화면에서 식사 일정(1)이 표시된 위치에서 스타일러스(200)의 접근이 감지되면, 상기 제어부(110)는 식별 부호420의 화면 예시도에 도시된 바와 같이 식사 일정(1)의 기한을 조절할 수 있는 "-" 형태의 기한 변경 어포던스 이미지(41)를 출력하도록 표시 패널(131)을 제어할 수 있다. 상기 기한 변경 어포던스 이미지(41)가 "-" 형태로 표시되는 것으로 한정되지는 않는다. 즉, 상기 기한 변경 어포던스 이미지(41)는 설계자의 의도에 따라 다양한 형태로 표현될 수 있다.When the approach of the stylus 200 is detected at the location where the meal schedule 1 is displayed on the schedule management screen, the controller 110 sets the time limit of the meal schedule 1 as shown in the screen example of the identification code 420. The display panel 131 may be controlled to output an adjustable term-changing affordance image 41. The period-changing affordance image 41 is not limited to being displayed in the form of "-". That is, the period-changing affordance image 41 may be expressed in various forms according to the intention of the designer.

상기 기한 변경 어포던스 이미지(41)가 출력된 상태에서 상기 식사 일정(1)의 기한을 변경하고자 하는 경우, 식별 부호 430의 화면 예시도에 도시된 바와 같이 사용자는 상기 기한 변경 어포던스 이미지(41)를 스타일러스(200)로 터치한 후 터치 이동(예컨대 드래그)함으로써, 상기 식사 일정(1)의 종료 시간을 변경할 수 있다. 반면에, 상기 식사 일정(1)의 표시 영역 중 기한 변경 어포던스 이미미(41)가 아닌 영역에서 터치가 감지되는 경우 상기 제어부(110)는 대응하는 기능(예컨대 상세 내역 보기)을 수행하도록 제어할 수 있다.When the deadline of the meal schedule 1 is to be changed while the due date change affordance image 41 is output, the user may change the due date change affordance image 41 as shown in the screen example of the reference numeral 430. By touching with the stylus 200 and then moving the touch (for example, dragging), the end time of the meal schedule 1 may be changed. On the other hand, if a touch is detected in a region other than the due date change image 41 of the display area of the meal schedule 1, the controller 110 may control to perform a corresponding function (eg, view details). have.

한편, 이상에서는 기한 변경 어포던스 이미지(41)가 터치되는 경우 상기 제어부(110)는 기한 변경 기능을 수행하도록 제어하고, 식사 일정(1)의 표시 영역 중 기한 변경 어포던스 이미지(41)가 출력되지 않은 영역이 터치되는 경우 식사 일정(1)의 선택에 대응하는 기능(상세 내역 출력)을 수행하도록 제어하는 것으로 설명하였다. 하지만, 본 발명이 이에 한정되지는 않는다. 예를 들어, 본 발명의 다른 예에서는 식사 일정(1)의 표시 영역을 상기 식사 일정(1)의 표시 영역의 테두리로부터 일정 거리까지 제1 가상 영역으로 설정하고, 식사 일정(1)의 표시 영역에 포함되고 상기 제1 가상 영역을 제외한 제2 가상 영역으로 설정할 수 있다. 상기 제1 가상 영역에 스타일러스(200)가 접근되었다고 판단되는 경우 상기 제어부(110)는 기한 변경이 가능함을 표시하는 기한 변경 어포던스 이미지(41)를 표시하도록 제어할 수 있다. 상기 제2 가상 영역에 스타일러스(200)가 접근되었다고 판단되면, 상기 제어부(110)는 상기 식사 일정(1)의 선택이 가능함을 알리는 선택 어포던스 이미지를 표시하거나 어포던스 이미지의 표시를 생략하도록 제어할 수 있다.On the other hand, in the above description, when the period-changing affordance image 41 is touched, the controller 110 controls to perform the function of changing the term, and the period-changing affordance image 41 of the display area of the meal schedule 1 is not output. When the area is touched, the control is performed to perform a function (detailed detail output) corresponding to the selection of the meal schedule 1. However, the present invention is not limited thereto. For example, in another example of the present invention, the display area of the meal schedule 1 is set as a first virtual area from a border of the display area of the meal schedule 1 to a first distance, and the display area of the meal schedule 1 is selected. The second virtual area may be included in the second virtual area except for the first virtual area. When it is determined that the stylus 200 approaches the first virtual region, the controller 110 may control to display the due date change affordance image 41 indicating that the due date can be changed. When it is determined that the stylus 200 approaches the second virtual region, the controller 110 may control to display a selection affordance image indicating that the selection of the meal schedule 1 is possible or to omit displaying the affordance image. have.

이상에서 상술한 본 발명은 스타일러스(200) 접근 감지 시 식사 일정(1)의 표시 영역의 일 측에 기한 변경 어포던스 이미지(41)를 표시함으로써, 식사 일정의 기간을 용이하게 변경할 수 있다. 하지만, 종래에는 다수의 단계를 거쳐 일정의 기한을 변경해야 했다. 예를 들어, 종래에는 상기 일정을 롱 터치하여 기한 변경 모드를 활성화하여 상기 일정의 기한을 변경해야 했다. 또는, 종래에는 상기 일정을 터치하여 상세 내역을 출력하고, 상기 상세 내역 화면에서 일정의 기한을 변경해야 했다. 즉, 본 발명은 종래에 비하여 일정의 기한을 빠르고, 용이하며, 편리하게 변경할 수 있어 사용자의 편의성을 향상 시킬 수 있다.The present invention described above can easily change the duration of the meal schedule by displaying the modified affordance image 41 on one side of the display area of the meal schedule 1 when the stylus 200 approaches detection. In the past, however, the schedule had to be changed in a number of steps. For example, in the related art, a long touch of the schedule was required to activate a time limit change mode to change the due date of the schedule. Alternatively, in the related art, a detailed history was output by touching the schedule, and the deadline of the schedule was changed on the details screen. That is, the present invention can change the time limit of the schedule faster, easier, and more convenient than in the related art, thereby improving user convenience.

한편, 상기 도 4에서는 일정의 종료 시간을 변경할 수 있는 기한 변경 어포던스 이미지만 표시하는 것으로 도시하였지만, 본 발명이 이에 한정되지는 않는다. 즉, 예를 들어, 상기 제어부(110)는 스타일러스(200)의 접근 감지 시 일정의 시작 시간, 시작 날짜 및 종료 날짜를 변경할 수 있는 기한 변경 어포던스 이미지를 더 출력할 수 있다.Meanwhile, in FIG. 4, only the period-changing affordance image for changing the end time of the schedule is displayed, but the present invention is not limited thereto. That is, for example, the controller 110 may further output a due date change affordance image that can change the start time, start date, and end date of the schedule when the stylus 200 approaches detection.

또한, 상기 도 4에서 도시하지는 않았지만, 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근이 감지되는 경우 상기 제어부(110)는 접근 감지를 무시할 수 있다. 즉, 상기 제어부(110)는 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근 시 아무런 이미지도 출력되지 않도록 제어할 수 있다. 이는 손가락을 이용하여 일정 표시 영역의 일 측에 표시되는 비교적 작은 크기를 가지는 어포던스 이미지를 터치하기 어렵기 때문이다. 이때, 사용자는 종래와 같이 일정을 터치하여 상세 내역을 확인하거나, 일정을 롱터치하여 일정 기한 변경 모드를 활성화할 수 있다.In addition, although not illustrated in FIG. 4, when an approach of a touch input device (for example, a finger) other than the stylus 200 is detected, the controller 110 may ignore the approach detection. That is, the controller 110 may control not to output any image when the touch input device (for example, a finger) approaches the stylus 200. This is because it is difficult to touch the affordance image having a relatively small size displayed on one side of the predetermined display area using a finger. In this case, the user may touch the schedule to check the details, or activate the schedule due date change mode by long touching the schedule.

본 발명의 또 다른 예로, 상기 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근이 감지되는 경우 상기 제어부(110)는 스타일러스(200) 접근 감지 시 표시되는 어포던스 이미지(예컨대 기한 변경 어포던스 이미지)와 구분되는 다른 어포던스 이미지를 출력할 수 있다. 예를 들어, 상기 제어부(110)는 상기 일정의 선택에 대응하는 어포던스 이미지를 출력할 수 있다.도 5는 본 발명의 실시 예에 따른 홈 화면에서 스타일러스 접근 시 어포던스 이미지를 제공하는 인터페이스의 예를 도시한 화면 예시도이다.As another example of the present invention, when an approach of a touch input device (for example, a finger) other than the stylus 200 is detected, the controller 110 may display an affordance image (eg, a time limit change image) displayed when the approach of the stylus 200 is detected. You can output different affordance images that are distinct from). For example, the controller 110 may output an affordance image corresponding to the selection of the schedule. FIG. 5 illustrates an example of an interface for providing an affordance image when a stylus approaches a home screen according to an embodiment of the present invention. An example of the screen shown.

상기 도 5를 참조하면, 본 발명의 실시 예에 따른 제어부(110)는 홈 화면을 표시하도록 표시 패널(131)을 제어할 수 있다. 상기 홈 화면은 식별 부호 510의 화면 예시도에 도시된 바와 같이 다수의 아이콘을 다행 다열로 배치하여 표시할 수 있다.Referring to FIG. 5, the controller 110 according to an exemplary embodiment of the present disclosure may control the display panel 131 to display a home screen. The home screen may be arranged by displaying a plurality of icons in a multi-column manner as shown in the screen example of the identification code 510.

상기 홈 화면에서 스타일러스(200)의 접근이 감지되면, 상기 제어부(110)는 식별 부호 520의 화면 예시도에 도시된 바와 같이 스타일러스(200)가 접근된 음악 재생 아이콘(2)의 일 측에 아이콘 이동 기능이 설정된 이동 어포던스 이미지(51)를 출력하도록 제어할 수 있다. 상기 도 5에서는 이동 어포던스 이미지(51)가 "

Figure 112012056673037-pat00001
"와 같은 형태를 가지며 음악 재생 아이콘(2)의 우측 하단에 표시되는 것으로 도시하였지만, 본 발명이 이에 한정되지는 않는다. 즉, 상기 이동 어포던스 이미지(51)의 형태 및 표시 위치는 다양하게 설정될 수 있다.When the approach of the stylus 200 is detected on the home screen, the controller 110 displays an icon on one side of the music play icon 2 to which the stylus 200 is accessed as shown in the screen example of the identification code 520. The movement function may be controlled to output the set movement affordance image 51. In FIG. 5, the moving affordance image 51 is "
Figure 112012056673037-pat00001
Although the present invention is illustrated as being displayed on the lower right side of the music play icon 2, the present invention is not limited thereto. That is, the shape and the display position of the moving affordance image 51 may be variously set. Can be.

상기 이동 어포던스 이미지(51)가 음악 재생 아이콘(2)의 일 측에 출력된 상태에서, 사용자는 식별 부호 530의 화면 예시도에 도시된 바와 같이 상기 이동 어포던스 이미지(51)를 스타일러스(200)로 터치한 후 터치 이동(예컨대 드래그)함으로써, 상기 음악 재생 아이콘(2)의 위치를 변경할 수 있다. 한편, 상기 음악 재생 아이콘(2)의 표시 영역에서 터치가 감지되는 경우 상기 제어부(110)는 상기 음악 재생 아이콘(2)에 설정된 음악 재생 기능을 수행하도록 제어할 수 있다.In the state where the moving affordance image 51 is output to one side of the music play icon 2, the user moves the moving affordance image 51 to the stylus 200 as shown in the screen example of the reference numeral 530. By touching and moving the touch (for example, dragging), the position of the music play icon 2 can be changed. Meanwhile, when a touch is detected in the display area of the music play icon 2, the controller 110 may control to perform a music play function set in the music play icon 2.

이와 같이 본 발명은 종래와 같이 다수의 단계를 거치지 않고 아이콘 이동을 용이하게 수행할 수 있다. 상세하게는, 종래에는 음악 재생 아이콘(2)을 롱 터치하여 아이콘 이동 기능을 활성화한 후 드래그를 통해 아이콘을 이동해야만 했다. 하지만 본 발명은 상기 스타일러스(200)의 접근 감지 시 아이콘의 일 측에 표시되는 이동 어포던스 이미지를 터치한 후 드래그함으로써, 아이콘 이동 기능을 빠르고, 용이하며, 편리하게 수행할 수 있다.As described above, the present invention can easily perform icon movement without going through a plurality of steps as in the prior art. In detail, in the related art, a long touch of the music play icon 2 was activated to activate the icon moving function, and then the icon must be moved by dragging. However, the present invention can perform the icon moving function quickly, easily and conveniently by touching and dragging the moving affordance image displayed on one side of the icon when the stylus 200 approaches the detection.

한편, 상기 도 4에서 상술한 바와 같이 상기 음악 재생 아이콘(2)을 제1가상 영역과 제2가상 영역으로 구분하고, 상기 제1가상 영역에 스타일러스(200)의 접근이 감지되는 경우 상기 제어부(110)는 이동 어포던스 이미지를 출력하고, 제2가상 영역에 스타일러스(200)의 접근이 감지되는 경우 상기 제어부(110)는 선택에 대응하는 선택 어포던스 이미지를 출력하거나, 아무런 이미지도 출력하지 않도록 제어할 수 있다.한편, 상기 도 5에서는 홈 화면에 표시된 아이콘의 위치를 변경하는 것으로 설명하였지만, 본 발명이 이에 한정되지는 않는다. 예를 들어, 상기 제어부(110)는 스타일러스(200)의 접근 감지 시 아이콘의 크기를 변경하는 크기 변경 어포던스 이미지를 표시할 수도 있다. 상기 크기 변경 어포던스 이미지는 홈 화면에 날씨 위젯, 일정 위젯 등과 같이 크기 변경이 가능한 위젯에 적용될 수 있을 것이다.Meanwhile, as described above with reference to FIG. 4, the music reproduction icon 2 is divided into a first virtual area and a second virtual area, and when the approach of the stylus 200 is detected in the first virtual area, the controller ( The controller 110 outputs a moving affordance image, and when the approach of the stylus 200 is detected in the second virtual area, the control unit 110 outputs a selection affordance image corresponding to the selection or controls to not output any image. In FIG. 5, the location of the icon displayed on the home screen is changed, but the present invention is not limited thereto. For example, the controller 110 may display a size change affordance image that changes the size of the icon when the stylus 200 approaches the detection. The resize affordance image may be applied to a widget that can be resized such as a weather widget or a schedule widget on a home screen.

또한, 상기 도 5에서 도시하지는 않았지만, 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근이 감지되는 경우 상기 제어부(110)는 접근 감지를 무시할 수 있다. 즉, 상기 제어부(110)는 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근 시 아무런 이미지도 출력되지 않도록 제어할 수 있다. 이는 아이콘의 표시 영역의 일 측에 표시되는 비교적 작은 크기를 가지는 어포던스 이미지를 손가락을 이용하여 터치하기 어렵기 때문이다. 이때, 사용자는 종래와 같이 아이콘을 롱터치하여 아이콘 이동 기능을 수행할 수 있다.In addition, although not illustrated in FIG. 5, when an approach of a touch input device (for example, a finger) other than the stylus 200 is detected, the controller 110 may ignore the approach detection. That is, the controller 110 may control not to output any image when the touch input device (for example, a finger) approaches the stylus 200. This is because it is difficult to touch the affordance image having a relatively small size displayed on one side of the display area of the icon using a finger. In this case, the user may long touch the icon to perform an icon moving function.

본 발명의 또 다른 예로, 상기 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근이 감지되는 경우 상기 제어부(110)는 스타일러스(200) 접근 감지 시 표시되는 어포던스 이미지(예컨대 이동 어포던스 이미지)와 구분되는 다른 어포던스 이미지를 출력할 수 있다. 예를 들어, 상기 제어부(110)는 상기 음악 재생 아이콘의 선택에 대응하는 어포던스 이미지를 출력할 수 있다.As another example of the present invention, when approaching a touch input device (for example, a finger) other than the stylus 200 is detected, the control unit 110 displays an affordance image (for example, a moving affordance image) displayed when the stylus 200 approaches the touch. You can output another affordance image that is distinct from. For example, the controller 110 may output an affordance image corresponding to the selection of the music play icon.

도 6은 본 발명의 실시 예에 따른 주소록 화면에서 스타일러스 접근 시 어포던스 이미지를 제공하는 인터페이스의 예를 도시한 화면 예시도이다.6 is an exemplary screen diagram illustrating an example of an interface for providing an affordance image when a stylus is accessed from an address book screen according to an exemplary embodiment of the present invention.

상기 도 6을 참조하면, 본 발명의 실시 예에 따른 제어부(110)는 주소록 화면을 표시하도록 표시 패널(131)을 제어할 수 있다. 상기 주소록 화면은 식별 부호 610의 화면 예시도에 도시된 바와 같이 휴대 단말기(100)에 등록된 연락처를 리스트 형태로 표시할 수 있다. Referring to FIG. 6, the controller 110 according to an exemplary embodiment of the present disclosure may control the display panel 131 to display an address book screen. As illustrated in the screen example of the identification code 610, the address book screen may display a contact registered in the portable terminal 100 in a list form.

상기 주소록 화면에서 제1연락처 필드(3)에 스타일러스(200)의 접근이 감지되면, 상기 제어부(110)는 식별 부호620의 화면 예시도에 도시된 바와 같이 제1연락처 필드(3)의 일 측에 기능 어포던스 이미지(61)를 출력하도록 제어할 수 있다. 상기 기능 어포던스 이미지(61)는 해당 연락처에 등록된 정보(전화번호, 이메일 주소, 인스턴트 메시지ID 등)를 이용하여 수행할 수 있는 기능을 나타내는 아이콘 예컨대 통화 아이콘, 문자 아이콘, 이메일 아이콘, 인스턴트 메시지 아이콘을 포함할 수 있다.When the stylus 200 approaches the first contact field 3 on the address book screen, the control unit 110 displays one side of the first contact field 3 as shown in the screen example of the identification code 620. The function affordance image 61 may be controlled to be output. The function affordance image 61 is an icon representing a function that can be performed using information (telephone number, email address, instant message ID, etc.) registered in the corresponding contact, for example, a call icon, a text icon, an email icon, an instant message icon. It may include.

상기 기능 어포던스 이미지(61)가 출력된 상태에서 사용자는 기능 어포던스 이미지(61)에 포함된 아이콘들 중 어느 하나를 스타일러스(200)로 터치하여 해당 기능을 수행할 수 있다. 예를 들어, 사용자가 통화 아이콘을 터치하는 경우 상기 제어부(110)는 해당 연락처의 전화번호를 이용하여 통화를 요청할 수 있다. 한편, 상기 제1연락처 필드(3)의 표시 영역 중 기능 어포던스 이미지(61)가 표시되지 않은 영역을 터치하는 경우 상기 제어부(110)는 제1연락처의 상세 정보 화면을 출력할 수 있다.한편, 사용자가 기능 어포던스 이미지(61)에 포함된 아이콘을 터치하지 않고, 스타일러스(200)를 타 연락처 필드로 이동하는 경우 상기 제어부(110)는 상기 기능 어포던스 이미지(61)를 타 연락처 필드로 이동시킬 수 있다. 예를 들어, 식별 부호 630의 화면 예시도에 도시된 바와 같이 사용자가 스타일러스(200)를 제2연락처 필드(4)로 이동하는 경우 상기 제어부(110)는 상기 기능 어포던스 이미지(61)를 제2연락처 필드(4) 일측에 표시하도록 제어할 수 있다.In the state in which the function affordance image 61 is output, the user may touch one of the icons included in the function affordance image 61 with the stylus 200 to perform a corresponding function. For example, when a user touches a call icon, the controller 110 may request a call using a phone number of the corresponding contact. On the other hand, when touching a region in which the function affordance image 61 is not displayed among the display regions of the first contact field 3, the controller 110 may output a detailed information screen of the first contact. When the user moves the stylus 200 to another contact field without touching an icon included in the function affordance image 61, the controller 110 may move the function affordance image 61 to another contact field. have. For example, when the user moves the stylus 200 to the second contact field 4, as illustrated in the screen example of the identification code 630, the controller 110 may move the function affordance image 61 to the second. The contact field 4 may be controlled to be displayed on one side.

이상에서 상술한 본 발명은 종래와 같이 다수의 단계를 거치지 않고 특정 기능을 용이하게 수행할 수 있다. 상세하게는, 종래에는 연락처 필드를 터치 또는 롱 터치하여 기능 리스트를 팝업창 형태로 출력시킨 후 원하는 기능(문자, 통화, 이메일 등)을 선택해야만 했다. 하지만 본 발명은 상기 스타일러스(200)의 접근 감지 시 연락처 필드의 일 측에 표시되는 기능 어포던스 이미지에 포함된 아이콘들 중 어느 하나를 터치함으로써, 원하는 기능을 빠르고, 용이하며, 편리하게 수행할 수 있다.The present invention as described above can easily perform a specific function without going through a number of steps as in the prior art. In detail, conventionally, the contact field has to be touched or long touched to output a function list in the form of a popup window, and then a desired function (text, call, email, etc.) has to be selected. However, the present invention can perform a desired function quickly, easily and conveniently by touching any one of the icons included in the function affordance image displayed on one side of the contact field when the stylus 200 approaches detection. .

또한, 상기 도 6에서 도시하지는 않았지만, 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근이 감지되는 경우 상기 제어부(110)는 접근 감지를 무시할 수 있다. 즉, 상기 제어부(110)는 스타일러스(200)가 아닌 터치 입력 장치(예컨대 손가락)의 접근 시 아무런 이미지도 출력되지 않도록 제어할 수 있다. 이는 아이콘의 표시 영역의 일 측에 표시되는 비교적 작은 크기를 가지는 어포던스 이미지를 손가락을 이용하여 터치하기 어렵기 때문이다. 예를 들어, 사용자가 손가락을 이용하여 문자 메시지 아이콘을 터치 시도 시 비교적 큰 크기를 가지는 손가락으로 인하여 통화 아이콘에 먼저 터치되는 문제가 발생할 수 있다.In addition, although not illustrated in FIG. 6, when an approach of a touch input device (for example, a finger) other than the stylus 200 is detected, the controller 110 may ignore the approach detection. That is, the controller 110 may control not to output any image when the touch input device (for example, a finger) approaches the stylus 200. This is because it is difficult to touch the affordance image having a relatively small size displayed on one side of the display area of the icon using a finger. For example, when a user attempts to touch a text message icon by using a finger, a problem of first touching the call icon may occur due to a finger having a relatively large size.

상술한 바와 같은 본 발명의 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 이때, 상기 컴퓨터로 판독 가능한 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 한편, 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.The method for providing a user interface of a mobile terminal according to the embodiment of the present invention as described above may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable recording medium. In this case, the computer-readable recording medium may include program instructions, data files, data structures, and the like, alone or in combination. On the other hand, the program instructions recorded on the recording medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in computer software. The computer-readable recording media may include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks. -Magneto-Optical Media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. In addition, program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention.

이상에서 상술한 본 발명은 스타일러스(200)의 접근이 감지되는 경우 터치 면적이 작은 스타일러스를 통해 제어 가능한 기능 즉, 정밀한 터치가 요구되는 기능을 포함하는 어포던스 이미지를 출력하고, 스타일러스(200)가 아닌 경우 즉, 손가락의 접근이 감지되는 경우 정밀한 터치가 요구되지 않는 기능을 포함하는 어포던스 이미지를 출력하도록 표시 패널(131)을 제어할 수 있다. 따라서, 본 발명은 상황에 따라 적절한 어포던스 이미지만을 출력하고, 불필요한 이미지를 화면에 출력하지 않아 사용자의 편의성을 향상시킬 수 있다. 또한, 본 발명은 터치 감지시가 아닌 터치 접근 감지 시 어포던스 이미지를 출력함에 따라 사용자가 원하는 기능을 좀 더 빠르게 실행할 수 있다.When the approach of the stylus 200 is detected as described above, the present invention outputs an affordance image including a controllable function through a stylus having a small touch area, that is, a function requiring precise touch, and not the stylus 200. In other words, when the approach of a finger is sensed, the display panel 131 may be controlled to output an affordance image including a function that does not require a precise touch. Therefore, according to the present invention, only the appropriate affordance image is output according to the situation, and unnecessary images are not output to the screen, thereby improving user convenience. In addition, the present invention outputs the affordance image when the touch approach is detected, not when the touch is detected, so that the user may execute a function more quickly.

이상에서는 본 발명의 실시 예에 따른 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치에 대하여 본 명세서 및 도면을 통해 바람직한 실시 예들에 대하여 설명하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위해 일반적인 의미에서 사용된 것일 뿐, 본 발명이 전술한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 기술적 사상에 바탕을 둔 다양한 실시 예가 가능함은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In the above description, preferred embodiments have been described through the specification and the drawings with respect to a method and a device for providing a user interface of a mobile terminal according to an embodiment of the present invention. Although specific terms are used, this merely describes the technical contents of the present invention. And only to be used in a general sense to help understand the invention, the present invention is not limited to the above-described embodiment. That is, various embodiments based on the technical idea of the present invention are possible to those skilled in the art.

100 : 휴대 단말기 110 : 제어부
120 : 저장부 130 : 표시부
140 : 무선 통신부 200 : 스타일러스
100: mobile terminal 110: control unit
120: storage unit 130: display unit
140: wireless communication unit 200: stylus

Claims (25)

터치스크린을 포함하는 휴대 단말기의 사용자 인터페이스 제공 방법에 있어서,
상기 터치스크린 상에 터치 입력 장치의 접근이 감지되는지 확인하는 과정;
상기 터치 입력 장치의 접근 감지 시 상기 감지된 터치 입력 장치의 종류를 판별하는 과정; 및
상기 판별 결과 상기 터치 입력 장치가 스타일러스이면, 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 제1어포던스 이미지를 출력하는 과정을 포함하고,
상기 제1 어포던스 이미지는 특정 기능이 설정된 적어도 하나의 기능 아이콘을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
In the method of providing a user interface of a mobile terminal including a touch screen,
Checking whether a touch input device is detected on the touch screen;
Determining a type of the detected touch input device when the touch input device detects an approach; And
If the touch input device is a stylus as a result of the determination, outputting a first affordance image corresponding to at least one function that may be performed using the stylus to a region where the approach of the stylus is detected;
And the first affordance image comprises at least one function icon set with a specific function.
제1항에 있어서,
상기 터치스크린상에 상기 터치 입력 장치의 접근이 감지되는지 확인하는 과정은
상기 터치스크린에 표시 중인 아이템들 중 하나에 상기 터치 입력 장치가 접근하는지 확인하는 과정인 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 1,
The process of checking whether the touch input device is detected on the touch screen is
And determining whether the touch input device approaches one of the items displayed on the touch screen.
제1항에 있어서,
상기 감지된 터치 입력 장치의 종류를 판별하는 과정은
전자 유도 방식의 터치 패널을 통해 상기 터치 입력 장치의 접근이 감지되는 경우 상기 스타일러스로 판단하는 과정; 및
상기 정전 용량 방식의 터치 패널을 통해 상기 터치 입력 장치의 접근이 감지되는 경우 손가락으로 판단하는 과정을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 1,
The process of determining the type of the detected touch input device
Determining that the stylus is approaching when the touch input device is detected through an electromagnetic induction touch panel; And
And determining by a finger when the touch input device approaches the touch input device through the capacitive touch panel.
제1항에 있어서,
상기 제1어포던스 이미지 상에서 터치 이벤트가 감지되면, 상기 터치 이벤트에 대응하여 상기 적어도 하나의 기능 중 하나를 수행하는 과정을 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 1,
If a touch event is detected on the first affordance image, performing one of the at least one function in response to the touch event.
제3항에 있어서,
상기 판별 결과 상기 터치 입력 장치가 손가락이면, 상기 손가락의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능과 구분되며, 상기 손가락을 이용하여 수행 가능한 적어도 하나의 다른 기능에 대응하는 제2어포던스 이미지를 출력하는 과정; 및
상기 판별 결과 상기 터치 입력 장치가 손가락이면 상기 손가락의 접근을 무시하는 과정 중 어느 하나를 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 3,
As a result of the determination, if the touch input device is a finger, the touch input device is distinguished from at least one function that can be performed using the stylus in an area where the approach of the finger is detected, and corresponds to at least one other function that can be performed using the finger. Outputting a second affordance image; And
If the touch input device is a finger as a result of the determination, the method of providing a user interface of the mobile terminal further comprising the step of ignoring the access of the finger.
제5항에 있어서,
상기 제2어포던스 이미지 상에서 터치 이벤트가 감지되면, 상기 터치 이벤트에 대응하여 상기 적어도 하나의 다른 기능 중 하나를 수행하는 과정을 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 5,
And if a touch event is detected on the second affordance image, performing one of the at least one other function in response to the touch event.
제5항에 있어서,
상기 제2어포던스 이미지는
특정 기능이 설정된 적어도 하나의 기능 아이콘을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 5,
The second affordance image is
And at least one function icon set with a specific function.
제7항에 있어서,
상기 제1어포던스 이미지 및 상기 제2어포던스 이미지에 포함되는 기능 아이콘은
상기 터치 입력 장치가 접근한 영역에 위치하는 아이템의 종류에 따라 변경되는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 7, wherein
The function icon included in the first affordance image and the second affordance image is
The user interface providing method of the mobile terminal, characterized in that it is changed according to the type of the item located in the area where the touch input device is approached.
제5항에 있어서,
상기 터치스크린에 접근한 상태에서 상기 터치 입력 장치의 이동이 감지되는 경우 상기 터치 입력 장치의 이동에 따라 상기 제1어포던스 이미지 또는 상기 제2어포던스 이미지를 이동하는 과정을 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 5,
And moving the first affordance image or the second affordance image according to the movement of the touch input device when the movement of the touch input device is detected in the state of approaching the touch screen. Method of providing a user interface of a terminal.
제1항에 있어서,
상기 터치 입력 장치의 접근이 감지된 영역에 어포던스 이미지를 표시하는 어포던스 이미지 표시 모드가 활성화되었는지 확인하는 과정; 및
상기 어포던스 이미지 표시 모드가 활성화된 경우 상기 터치 입력 장치의 종류를 판별하는 과정을 수행하는 과정을 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
The method of claim 1,
Checking whether an affordance image display mode for displaying an affordance image in an area where an approach of the touch input device is detected is activated; And
And determining a type of the touch input device when the affordance image display mode is activated.
터치 입력 장치의 접근 및 터치를 인식하는 터치 패널;
상기 터치 입력 장치의 접근 감지 시 상기 감지된 터치 입력 장치의 종류를 판별하고, 상기 판별 결과 상기 터치 입력 장치가 스타일러스이면, 상기 스타일러스의 접근이 감지된 영역의 일측에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 제1어포던스 이미지를 출력하도록 제어하는 제어부; 및
상기 제1어포던스 이미지를 출력하는 표시 패널을 포함하고,
상기 제1 어포던스 이미지는 특정 기능이 설정된 적어도 하나의 기능 아이콘을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
A touch panel to recognize an approach and a touch of the touch input device;
When the touch input device detects an approach, the type of the detected touch input device is determined, and if the touch input device is a stylus, when the touch input device is a stylus, at least one side of the region where the access of the stylus is detected may be performed using the stylus A controller which controls to output a first affordance image corresponding to one function; And
A display panel configured to output the first affordance image;
And the first affordance image includes at least one function icon set with a specific function.
제11항에 있어서,
상기 제어부는
상기 터치 패널상에 표시 중인 아이템들 중 하나에 상기 터치 입력 장치가 접근하는지 확인하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The control unit
And determining whether the touch input device approaches one of the items displayed on the touch panel.
제11항에 있어서,
상기 제어부는
상기 제1어포던스 이미지 상에서 터치 이벤트가 감지되면, 상기 감지된 터치 이벤트에 대응하여 상기 적어도 하나의 기능들 중 하나를 실행하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The control unit
And when a touch event is detected on the first affordance image, executing one of the at least one functions in response to the detected touch event.
제11항에 있어서,
상기 제어부는
상기 판별 결과 상기 터치 입력 장치가 스타일러스가 아니면 상기 터치 입력 장치의 접근이 감지된 위치에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능과 구분되는 적어도 하나의 다른 기능에 대응하는 제2어포던스 이미지를 출력하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The control unit
If the touch input device is not a stylus as a result of the determination, a second affordance image corresponding to at least one other function distinguished from at least one function that can be performed using the stylus is output at a position where the touch input device is approached. Apparatus for providing a user interface of a mobile terminal, characterized in that.
제14항에 있어서,
상기 제어부는
상기 제2어포던스 이미지 상에서 터치 이벤트가 감지되면, 상기 감지된 터치 이벤트에 대응하여 상기 적어도 하나의 다른 기능들 중 하나를 수행하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 14,
The control unit
And when a touch event is detected on the second affordance image, performing one of the at least one other function in response to the detected touch event.
제14항에 있어서,
상기 제2어포던스 이미지는
특정 기능이 설정된 적어도 하나의 기능 아이콘을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 14,
The second affordance image is
And at least one function icon set with a specific function.
제16항에 있어서,
상기 제어부는
상기 터치 입력 장치가 접근한 영역에 위치하는 아이템의 종류에 따라 상기 제1어포던스 이미지 또는 상기 제2어포던스 이미지에 포함되는 기능 아이콘을 변경하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 16,
The control unit
And a function icon included in the first affordance image or the second affordance image according to a type of an item located in an area where the touch input device is accessed.
제14항에 있어서,
상기 제어부는
상기 터치 패널에 접근한 상태에서 상기 터치 입력 장치의 이동이 감지되는 경우 상기 터치 입력 장치의 이동에 따라 상기 제1어포던스 이미지 또는 상기 제2어포던스 이미지를 이동하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 14,
The control unit
When the movement of the touch input device is detected in a state in which the touch panel is approached, the user interface of the mobile terminal may be moved according to the movement of the touch input device. Device.
제11항에 있어서,
상기 제어부는
상기 판별 결과 상기 터치 입력 장치가 스타일러스가 아닌 경우 상기 터치 입력 장치의 접근을 무시하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The control unit
And determining that the touch input device is not accessible when the touch input device is not a stylus.
제11항에 있어서,
상기 제어부는
상기 터치 입력 장치의 접근이 감지된 영역에 어포던스 이미지를 표시하는 어포던스 이미지 표시 모드가 활성화되었는지 확인하고, 상기 어포던스 이미지 표시 모드가 활성화된 경우 상기 감지된 터치 입력 장치의 종류를 판별하는 과정을 수행하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The control unit
Checking whether an affordance image display mode for displaying an affordance image in an area where the touch input device is detected is activated, and determining the type of the detected touch input device when the affordance image display mode is activated; Apparatus for providing a user interface of a mobile terminal, characterized in that.
제11항에 있어서,
상기 터치 패널은
정전 용량 방식의 터치 패널 및 전자 유도 방식의 터치 패널이 결합된 복합 터치 패널인 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The touch panel
Device for providing a user interface of a portable terminal, characterized in that the combined touch panel of the capacitive touch panel and the electromagnetic induction touch panel combined.
제21항에 있어서,
상기 제어부는
상기 전자 유도 방식의 터치 패널을 통해 상기 터치 입력 장치의 접근이 감지되는 경우 상기 스타일러스가 접근한 것으로 판단하고, 상기 정전 용량 방식의 터치 패널을 통해 상기 터치 입력 장치의 접근이 감지되는 경우 손가락이 접근한 것으로 판단하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 21,
The control unit
If the touch input device is detected through the electromagnetic induction type touch panel, the stylus determines that the approach is made, and if the touch input device is detected through the capacitive type touch panel, the finger approaches. Apparatus for providing a user interface of a mobile terminal, characterized in that judged one.
제11항에 있어서,
상기 터치 패널은
감압 방식의 터치 패널 및 전자 유도 방식의 터치 패널이 결합된 복합 터치 패널인 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
The method of claim 11,
The touch panel
Device for providing a user interface of a mobile terminal, characterized in that the combined touch panel is a combination of a pressure sensitive touch panel and an electromagnetic induction touch panel.
터치스크린을 포함하는 휴대 단말기의 사용자 인터페이스 제공 방법에 있어서,
상기 터치스크린 상에 스타일러스의 접근이 감지되는 과정; 및
상기 스타일러스의 접근 감지 시 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 어포던스 이미지를 출력하는 과정을 포함하고,
상기 어포던스 이미지는 특정 기능이 설정된 적어도 하나의 기능 아이콘을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 방법.
In the method of providing a user interface of a mobile terminal including a touch screen,
Sensing the approach of the stylus on the touch screen; And
Outputting an affordance image corresponding to at least one function that can be performed using the stylus in a region where the approach of the stylus is detected when the approach of the stylus is detected;
And the affordance image comprises at least one function icon set with a specific function.
터치스크린; 및
상기 터치스크린 상에 스타일러스의 접근 감지 시 상기 스타일러스의 접근이 감지된 영역에 상기 스타일러스를 이용하여 수행 가능한 적어도 하나의 기능에 대응하는 어포던스 이미지를 출력하도록 상기 터치스크린을 제어하는 제어부를 포함하고,
상기 어포던스 이미지는 특정 기능이 설정된 적어도 하나의 기능 아이콘을 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 제공 장치.
touch screen; And
And a controller configured to control the touch screen to output an affordance image corresponding to at least one function that can be performed using the stylus in a region where the stylus is detected when the approach of the stylus is detected on the touch screen.
And the affordance image comprises at least one function icon with a specific function set therein.
KR1020120077301A 2011-08-31 2012-07-16 Method and apparatus for providing of user interface in portable device KR101971067B1 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
US13/595,157 US20130050143A1 (en) 2011-08-31 2012-08-27 Method of providing of user interface in portable terminal and apparatus thereof
JP2012190182A JP6309705B2 (en) 2011-08-31 2012-08-30 Method and apparatus for providing user interface of portable terminal
CA2846482A CA2846482A1 (en) 2011-08-31 2012-08-30 Method of providing of user interface in portable terminal and apparatus thereof
PCT/KR2012/006914 WO2013032234A1 (en) 2011-08-31 2012-08-30 Method of providing of user interface in portable terminal and apparatus thereof
RU2014107746/08A RU2014107746A (en) 2011-08-31 2012-08-30 METHOD AND DEVICE OF PROVIDING USER INTERFACE IN PORTABLE TERMINAL
AU2012302448A AU2012302448A1 (en) 2011-08-31 2012-08-30 Method of providing a user interface in portable terminal and apparatus thereof
EP12182474.2A EP2565752A3 (en) 2011-08-31 2012-08-30 Method of providing a user interface in portable terminal and apparatus thereof
BR112014005039A BR112014005039A2 (en) 2011-08-31 2012-08-30 method for providing user interface on handheld terminal and device with the same
CN201210319914.5A CN103092502B (en) 2011-08-31 2012-08-31 The method and its equipment of user interface are provided in portable terminal
ZA2014/01837A ZA201401837B (en) 2011-08-31 2014-03-12 Method of providing of user interface in portable terminal and apparatus thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110087832 2011-08-31
KR1020110087832 2011-08-31

Publications (2)

Publication Number Publication Date
KR20130024742A KR20130024742A (en) 2013-03-08
KR101971067B1 true KR101971067B1 (en) 2019-08-14

Family

ID=48176740

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120077301A KR101971067B1 (en) 2011-08-31 2012-07-16 Method and apparatus for providing of user interface in portable device

Country Status (7)

Country Link
KR (1) KR101971067B1 (en)
CN (1) CN103092502B (en)
AU (1) AU2012302448A1 (en)
BR (1) BR112014005039A2 (en)
CA (1) CA2846482A1 (en)
RU (1) RU2014107746A (en)
ZA (1) ZA201401837B (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9058186B2 (en) 2010-04-07 2015-06-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
EP3008562B1 (en) * 2013-06-09 2020-02-26 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US10101869B2 (en) 2013-08-13 2018-10-16 Samsung Electronics Company, Ltd. Identifying device associated with touch event
US10073578B2 (en) 2013-08-13 2018-09-11 Samsung Electronics Company, Ltd Electromagnetic interference signal detection
US10141929B2 (en) 2013-08-13 2018-11-27 Samsung Electronics Company, Ltd. Processing electromagnetic interference signal using machine learning
US10042446B2 (en) 2013-08-13 2018-08-07 Samsung Electronics Company, Ltd. Interaction modes for object-device interactions
US9569055B2 (en) * 2013-08-13 2017-02-14 Samsung Electronics Company, Ltd. Interaction sensing
US11256410B2 (en) 2014-01-22 2022-02-22 Lenovo (Singapore) Pte. Ltd. Automatic launch and data fill of application
US10101844B2 (en) 2014-03-14 2018-10-16 Lg Electronics Inc. Mobile terminal and method of controlling the same based on type of touch object used to apply touch input
US10817124B2 (en) 2014-06-03 2020-10-27 Lenovo (Singapore) Pte. Ltd. Presenting user interface on a first device based on detection of a second device within a proximity to the first device
CN105183364A (en) * 2015-10-30 2015-12-23 小米科技有限责任公司 Application switching method, application switching device and application switching equipment
US10795450B2 (en) * 2017-01-12 2020-10-06 Microsoft Technology Licensing, Llc Hover interaction using orientation sensing
US10496190B2 (en) * 2017-01-25 2019-12-03 Microsoft Technology Licensing, Llc Redrawing a user interface based on pen proximity
TWI758616B (en) * 2019-07-11 2022-03-21 祥閎科技股份有限公司 Secure interaction system and communication display device
CN113050839B (en) * 2021-03-31 2024-01-23 京东方科技集团股份有限公司 Multi-touch driving method and device, storage medium and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7802202B2 (en) * 2005-03-17 2010-09-21 Microsoft Corporation Computer interaction based upon a currently active input device
TWI374374B (en) * 2007-05-15 2012-10-11 Htc Corp Method for operating a user interface for an electronic device and the software thereof
FR2925714B1 (en) * 2007-12-19 2010-01-15 Stantum ELECTRONIC CAPACITIVE / RESISTIVE ALTERNATING ANALYSIS CIRCUIT FOR MULTICONTACT PASSIVE MATRIX TOUCH SENSOR
KR20110063570A (en) * 2008-09-29 2011-06-10 쿄세라 코포레이션 Electronic device and display method employed in electronic device
EP2228711A3 (en) * 2009-03-12 2014-06-04 Lg Electronics Inc. Mobile terminal and method for providing user interface thereof
CN102073454A (en) * 2011-01-13 2011-05-25 宇龙计算机通信科技(深圳)有限公司 Mobile terminal and input control method for touch panel

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium

Also Published As

Publication number Publication date
ZA201401837B (en) 2016-01-27
CA2846482A1 (en) 2013-03-07
AU2012302448A1 (en) 2014-02-20
RU2014107746A (en) 2015-09-10
KR20130024742A (en) 2013-03-08
CN103092502B (en) 2018-11-02
CN103092502A (en) 2013-05-08
BR112014005039A2 (en) 2017-03-21

Similar Documents

Publication Publication Date Title
KR101971067B1 (en) Method and apparatus for providing of user interface in portable device
JP6309705B2 (en) Method and apparatus for providing user interface of portable terminal
EP2732364B1 (en) Method and apparatus for controlling content using graphical object
KR101761190B1 (en) Method and apparatus for providing user interface in portable terminal
CN108334264B (en) Method and apparatus for providing multi-touch interaction in portable terminal
US9400590B2 (en) Method and electronic device for displaying a virtual button
AU2013223015B2 (en) Method and apparatus for moving contents in terminal
KR102020345B1 (en) The method for constructing a home screen in the terminal having touchscreen and device thereof
US9298292B2 (en) Method and apparatus for moving object in terminal having touch screen
AU2013276998B2 (en) Mouse function provision method and terminal implementing the same
US20140365950A1 (en) Portable terminal and user interface method in portable terminal
KR20130056583A (en) Method and apparatus for managing of time limited contents in electric device
EP2770421A2 (en) Electronic device having touch-sensitive user interface and related operating method
KR102118091B1 (en) Mobile apparatus having fuction of pre-action on object and control method thereof
KR20140105354A (en) Electronic device including a touch-sensitive user interface
EP2685367B1 (en) Method and apparatus for operating additional function in mobile device
US20130113741A1 (en) System and method for searching keywords
KR101874898B1 (en) Method and apparatus for operating function of portable terminal

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant