KR20100006643A - Method for recognizing touch input and apparatus for performing the same - Google Patents

Method for recognizing touch input and apparatus for performing the same Download PDF

Info

Publication number
KR20100006643A
KR20100006643A KR1020080066855A KR20080066855A KR20100006643A KR 20100006643 A KR20100006643 A KR 20100006643A KR 1020080066855 A KR1020080066855 A KR 1020080066855A KR 20080066855 A KR20080066855 A KR 20080066855A KR 20100006643 A KR20100006643 A KR 20100006643A
Authority
KR
South Korea
Prior art keywords
touch
group
coordinate value
touch input
determining
Prior art date
Application number
KR1020080066855A
Other languages
Korean (ko)
Inventor
안세호
Original Assignee
주식회사 케이티테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티테크 filed Critical 주식회사 케이티테크
Priority to KR1020080066855A priority Critical patent/KR20100006643A/en
Publication of KR20100006643A publication Critical patent/KR20100006643A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks

Abstract

PURPOSE: A touch input recognizing method and a device for performing the same are provided to recognize touch input by distinguishment of a group corresponding to the beginning and end locations of a locus, thereby drastically reducing a processing load for recognizing the touch input. CONSTITUTION: A touch screen(310) indicates a UI(User Interface) screen and provides a coordinate value corresponding to a touch locus. A controller(320) groups a touch area of the touch screen by a fixed number of groups. The controller decides the first group corresponding to a beginning coordinate value in which touch input begins based on the coordinate values and the second group corresponding to an end coordinate value in which the touch input ends. The controller decides an execution event based on the first and second groups.

Description

터치 입력 인식 방법 및 이를 수행하는 장치{Method For Recognizing Touch Input And Apparatus For Performing The Same}Method for recognizing touch input and device for performing the same {Method For Recognizing Touch Input And Apparatus For Performing The Same}

본 발명은 터치 입력 인식 방법에 관한 것으로, 더욱 상세하게는 터치 스크린을 구비한 장치에 적용될 수 있는 터치 입력 인식 방법 및 이를 수행하는 장치에 관한 것이다.The present invention relates to a touch input recognition method, and more particularly, to a touch input recognition method that can be applied to a device having a touch screen and a device for performing the same.

최근들어, 프로세서 기술의 급격한 발전과 메모리 용량의 증가 그리고 멀티미디어 부호화 기술의 발전에 힘입어 핸드폰, PDA(Personal Digital Assistants) 등과 같은 휴대용 단말기에 포함되는 기능이 점점 더 다양화되고 있다.Recently, with the rapid development of processor technology, memory capacity increase, and multimedia coding technology, functions included in portable terminals such as mobile phones and PDAs (Personal Digital Assistants) are becoming more and more diversified.

휴대용 단말기에 구비되는 기능이 다양하게 증가하면서 휴대용 단말기에 구비된 기능을 활용하기 위한 메뉴도 증가하고 있고 이로 인해 종래의 고정적 매트릭스 배열을 가지는 키 패드 만으로는 휴대용 단말기에 구비된 다양한 기능을 활용하기가 부적합하게 되었다.As the functions provided in the portable terminal have increased in various ways, the menus for utilizing the functions provided in the portable terminal have also increased. As a result, the keypad having a conventional fixed matrix arrangement is not suitable to utilize various functions provided in the portable terminal. Was done.

또한, 최근에는 휴대용 단말기에 구비된 응용프로그램이 숫자나 텍스트 기반의 인터페이스에서 그래픽 기반으로 인터페이스로 변화하면서 종래의 숫자, 문자 또는 방향키만으로는 그래픽 기반의 응용프로그램을 효율적으로 사용할 수 없게 되 었다.In addition, recently, as the application program provided in the portable terminal is changed from a number or text-based interface to a graphic-based interface, it is not possible to efficiently use a graphic-based application program using only conventional numbers, letters, or arrow keys.

또한, 휴대용 단말기가 멀티미디어 재생 및 휴대 인터넷 기능 등과 같은 다양한 영상 표시 기능을 구비하면서 더 넓은 가시화면을 구비한 디스플레이 장치에 대한 요구가 증가하게 되었다.In addition, while the portable terminal has various image display functions such as multimedia playback and portable Internet function, there is an increasing demand for a display device having a wider visible screen.

상기와 같은 시대의 흐름에 발맞추어 최근에는 별도의 키패드를 구비하지 않고 입력과 디스플레이를 하나의 장치에서 동시에 수행할 수 있는 터치 스크린이 휴대용 단말기에 채용되고 있다.In line with the trend of the above times, recently, a touch screen capable of simultaneously performing input and display in one device without using a separate keypad has been adopted in a portable terminal.

터치 스크린은 디스플레이 영역에 표시된 버튼 또는 그래픽 개체를 손가락 또는 펜으로 접촉하는 것만으로 대화적이고 직감적으로 휴대용 단말기를 사용할 수 있기 때문에 입력 작업이 간결해지고, 입력을 위해 표시되는 인터페이스 개체가 해당 응용프로그램에 최적화되어 표시되기 때문에 사용자가 입력 인터페이스를 보다 쉽게 인지하여 입력이 용이하다는 장점이 있다. The touch screen simplifies input operations by allowing the user to use the handheld terminal interactively and intuitively by simply touching a button or graphic object displayed in the display area with a finger or pen, and the interface object displayed for input is optimized for the application. Since it is displayed, the user can more easily recognize the input interface and input the same.

또한, 터치 스크린은 디스플레이 장치와 터치 패드가 일체형으로 설치되기 때문에 종래의 휴대용 단말기와 같이 키패드 설치공간을 별도록 구비하지 않아도 되어 더 큰 가시화면을 가지는 디스플레이 장치를 휴대용 단말기에 채용할 수 있는 장점이 있다.In addition, since the touch screen is integrally installed with the display device and the touch pad, it is not necessary to provide a keypad installation space like a conventional portable terminal, so that a display device having a larger visible screen can be adopted in the portable terminal. have.

터치 스크린은 구동 방식에 따라 접촉식 정전용량 방식, 적외선 광 감지 방식, 표면 초음파 방식, 압전 방식, 적분식 장력 측정 방식, 저항막 방식이 있고, 이 중 투과율이 높고 반응속도가 빠르며 내성이 우수하여 작동환경에 영향을 적게 받는 저항막 방식이 일반적으로 많이 사용되고 있다.The touch screen has contact capacitive method, infrared light sensing method, surface ultrasonic method, piezoelectric method, integral tension measuring method and resistive film method depending on the driving method. Among them, the transmittance is high, the reaction speed is fast and the resistance is excellent. Resistor films that are less affected by the operating environment are generally used.

그러나, 일반적인 휴대용 단말기는 휴대성을 위해 작은 크기로 제작되기 때문에 휴대용 단말기에 구비되는 터치 스크린의 크기도 제한될 수 밖에 없고, 작은 크기의 터치 스크린에 표시될 수 있는 메뉴 항목의 수나 또는 응용프로그램의 제어를 위한 버튼의 수도 한계가 있다.However, since a general portable terminal is manufactured in a small size for portability, the size of the touch screen included in the portable terminal is also limited, and the number of menu items or application programs that can be displayed on the small size touch screen is limited. There is a limit to the number of buttons for control.

상기와 같은 단점을 보완하기 위해 휴대용 단말기에 구비된 터치 스크린의 터치 입력 방법에는 터치 스크린에 표시된 메뉴 또는 버튼을 단순 터치하여 입력하는 터치 입력 방법 이외에도, 사용자가 터치 스크린에 터치를 통해 직선, 곡선, 도형, 기호 등과 같은 소정의 이차원 제스쳐를 제공함으로써 소정의 메뉴를 선택하거나 소정 응용프로그램의 실행을 제어하는 방법이 사용되고 있다.In order to compensate for the above disadvantages, the touch input method of the touch screen provided in the portable terminal includes a straight line, a curve, a touch input through a touch on the touch screen, in addition to the touch input method of simply touching a menu or a button displayed on the touch screen. A method of selecting a predetermined menu or controlling execution of a predetermined application by providing a predetermined two-dimensional gesture such as a figure or a symbol is used.

그러나, 사용자가 터치 스크린에 직선, 곡선, 도형 또는 기호 등과 같은 이차원 형태의 터치 궤적을 그리게 되면, 터치 스크린을 구비한 휴대용 단말기는 터치 스크린으로부터 사용자가 터치한 궤적에 상응하는 좌표값들을 제공받고, 제공받은 좌표값들을 다시 처리하여 사용자가 제공한 터치 입력의 유형을 판단한 후 판단된 터치 궤적에 대응되는 이벤트를 실행하기 때문에, 터치 입력을 인식하기 위한 처리 부하가 크고 이로 인해 전체적인 처리 성능이 저하되는 문제점이 있다.However, when the user draws a two-dimensional touch trace such as a straight line, a curve, a figure or a symbol on the touch screen, the portable terminal having the touch screen receives coordinate values corresponding to the trace touched by the user from the touch screen. Since the coordinate values received are processed again to determine the type of touch input provided by the user, and then the event corresponding to the determined touch trajectory is executed, the processing load for recognizing the touch input is large and the overall processing performance is reduced. There is a problem.

따라서, 본 발명의 제1 목적은 사용자가 제공한 터치 입력을 용이하게 인식할 수 있고, 터치 입력을 인식하기 위한 처리 부하를 감소시킬 수 있는 터치 입력 인식 방법을 제공하는 것이다.Accordingly, a first object of the present invention is to provide a touch input recognition method capable of easily recognizing a touch input provided by a user and reducing a processing load for recognizing the touch input.

또한, 본 발명의 제2 목적은 사용자가 제공한 터치 입력을 용이하게 인식할 수 있고, 터치 입력을 인식하기 위한 처리 부하를 감소시킬 수 있는 터치 입력 인식 장치를 제공하는 것이다.In addition, a second object of the present invention is to provide a touch input recognition device that can easily recognize a touch input provided by a user and can reduce the processing load for recognizing the touch input.

상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 실시예에 따른 터치 입력 인식 방법은, 상기 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화되는 단계와, 상기 그룹화된 터치 스크린에 터치 입력이 제공되는 단계와, 상기 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하는 단계 및 상기 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 단계를 포함한다. 상기 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화 되는 단계는, 터치 스크린의 중심 좌표를 기준으로 반지름이 소정 길이만큼 일정하게 증가하는 소정 개수의 가상의 동심원에 의해 그룹화될 수 있다. 상기 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화되는 단계는, 터치 스크린에 표시되는 사용자 인터페이스의 종류에 기초하여 서로 다른 모양으로 그룹화될 수 있다. 상기 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하는 단계는, 상기 시작 좌표값 및 상기 종료 좌표값을 미리 저장된 각 그룹의 좌표값들과 비교하여 상기 제1 그룹 및 상기 제2 그룹을 판단할 수 있다. 상기 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하는 단계는, 상기 시작 좌표값 및 상기 종료 좌표값의 변화량에 기초하여 상기 터치 입력의 방향을 판단할 수 있다. 상기 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 단계는, 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리에 기초하여 실행 이벤트를 결정할 수 있다. 상기 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 단계는, 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리와 상기 터치 입력의 방향에 기초하여 실행 이벤트를 결정할 수 있다.According to an aspect of the present invention, there is provided a method of recognizing a touch input, in which a touch area of the touch screen is grouped into a predetermined number of groups, and a touch on the grouped touch screen. Determining an input is provided, determining a first group corresponding to a start coordinate value at which the touch input is started, and a second group corresponding to an end coordinate value at which the touch input is terminated, and determining the first group; Determining an execution event based on the second group. Grouping the touch areas of the touch screen into a predetermined number of groups may be grouped by a predetermined number of virtual concentric circles whose radius increases constantly by a predetermined length based on the center coordinates of the touch screen. Grouping the touch areas of the touch screen into a predetermined number of groups may be grouped into different shapes based on the type of the user interface displayed on the touch screen. The determining of the first group corresponding to the start coordinate value at which the touch input is started and the second group corresponding to the end coordinate value at which the touch input is terminated may include storing the start coordinate value and the end coordinate value in advance. The first group and the second group may be determined by comparing the coordinate values of the group. The determining of the first group corresponding to the start coordinate value at which the touch input starts and the second group corresponding to the end coordinate value at which the touch input ends is based on the change amount of the start coordinate value and the end coordinate value. The direction of the touch input can be determined. In the determining of the execution event based on the determined first group and the second group, the execution event may be determined based on a distance between the determined first group and the second group. In the determining of the execution event based on the determined first group and the second group, the execution event may be determined based on a distance between the determined first group and the second group and a direction of the touch input. .

또한, 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 실시예에 따른 터치 입력 인식 장치는 사용자 인터페이스 화면을 표시하고, 터치된 궤적에 대응되는 좌표값을 제공하는 터치 스크린 및 상기 터치 스크린의 터치 영역을 소정 개수의 그룹으로 그룹화하고, 상기 터치 스크린으로부터 제공된 좌표값들에 기초하여 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하고, 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 제어부를 포함한다. 상기 제어부는 터치 스크린에 표시되는 사용자 인터페이스의 종류에 기초하여 서로 다른 모양으로 상기 터치 영역을 그룹화할 수 있다. 상기 제어부는 상기 시작 좌표값 및 상기 종료 좌표값을 미리 저장된 각 그룹의 좌표값들과 비교하여 상기 제1 그룹 및 상기 제2 그룹을 판단할 수 있다. 상기 제어부는 상기 시작 좌표값 및 상기 종료 좌표값의 변화량에 기초하여 상기 터치 입력의 방향을 판단할 수 있다. 상기 제어부는 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리에 기초하여 실행 이벤트를 결정할 수 있다. 상기 제어부는 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리와 상기 터치 입력의 방향에 기초하여 실행 이벤트를 결정할 수 있다.In addition, the touch input recognition device according to an embodiment of the present invention for achieving the second object of the present invention is a touch screen for displaying a user interface screen, and provides a coordinate value corresponding to the touched trajectory and the touch screen Grouping the touch area into a predetermined number of groups, and based on the coordinate values provided from the touch screen, a first group corresponding to a start coordinate value at which a touch input starts and a second coordinate value corresponding to an end coordinate value at which the touch input ends And a controller configured to determine the two groups and determine an execution event based on the determined first group and the second group. The controller may group the touch areas in different shapes based on the type of the user interface displayed on the touch screen. The controller may determine the first group and the second group by comparing the start coordinate value and the end coordinate value with coordinate values of respective groups. The controller may determine the direction of the touch input based on the change amount of the start coordinate value and the end coordinate value. The controller may determine an execution event based on the determined distance between the first group and the second group. The controller may determine an execution event based on the distance between the determined first group and the second group and the direction of the touch input.

상기와 같은 터치 입력 인식 방법 및 이를 수행하는 장치에 따르면, 터치 스크린의 터치 영역을 소정 개수의 가상 그룹으로 그룹화한 후, 터치 영역에 터치 궤적이 그려지면 터치 궤적에 대응되는 좌표값에 기초하여 터치 궤적의 시작 위치에 대응되는 그룹과 터치 궤적의 종료 위치에 대응되는 그룹을 판단하고 터치 궤적의 방향을 판단한다. 그리고, 판단된 그룹 정보 및/또는 터치 궤적의 방향에 기초하여 실행 이벤트를 결정한다.According to the above-described method of recognizing a touch input and a device for performing the same, after grouping touch regions of a touch screen into a predetermined number of virtual groups, if a touch trace is drawn on the touch region, the touch is based on a coordinate value corresponding to the touch trace. The group corresponding to the start position of the trajectory and the group corresponding to the end position of the touch trajectory are determined, and the direction of the touch trajectory is determined. The execution event is determined based on the determined group information and / or the direction of the touch trajectory.

따라서, 사용자가 제공한 터치 궤적에 대응되는 좌표값에 기초하여 터치 궤적을 추정하는 별도의 복잡한 처리 과정이 필요없이 터치 궤적의 시작 및 종료 위치에 대응되는 그룹을 판별하는 것만으로 터치 입력을 용이하게 인식할 수 있고, 이로 인해 터치 입력의 인식을 위한 처리 부하가 획기적으로 감소한다.Therefore, the touch input can be easily performed by determining a group corresponding to the start and end positions of the touch trace without the need for a separate complicated process of estimating the touch trace based on the coordinate value corresponding to the touch trace provided by the user. It can be recognized, which greatly reduces the processing load for the recognition of the touch input.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나 의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.

도 1은 본 발명의 일 실시예에 따른 터치 입력 인식 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a touch input recognition method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 터치 입력 인식 방법에서는 먼저, 터치 스크린을 구비한 터치 입력 인식 장치가 터치 스크린의 터치 영역을 소정 개수의 그룹으로 그룹화한다. 여기서, 터치 영역은 사용자가 터치 가능한 터치 스크린의 표면을 지칭한다.Referring to FIG. 1, in the touch input recognition method according to an embodiment of the present invention, a touch input recognition device having a touch screen first groups the touch areas of the touch screen into a predetermined number of groups. Here, the touch area refers to the surface of the touch screen touchable by the user.

구체적으로, 도 1의 (a)에 도시된 바와 같이 터치 영역(10)의 그룹화는 터치 영역의 중심(11)을 기준으로 반지름이 소정 길이 만큼 일정하게 증가하는 복수의 가상 동심원을 형성하고, 형성된 가상 동심원에 의해 구분된 터치 영역에 기초하여 복수의 그룹이 설정될 수 있다.Specifically, as shown in FIG. 1A, the grouping of the touch regions 10 forms a plurality of virtual concentric circles whose radius is constantly increased by a predetermined length with respect to the center 11 of the touch region. A plurality of groups may be set based on the touch areas divided by the virtual concentric circles.

예를 들어, 터치 영역의 그룹화는 터치 영역(10)의 중심(11)으로부터 터치 영역의 가장자리 쪽으로 등간격으로 그려진 복수의 동심원들에 기초하여 제1 그 룹(21) 내지 제8 그룹(28)로 그룹화될 수 있다.For example, the grouping of the touch areas is based on the first group 21 to the eighth group 28 based on a plurality of concentric circles drawn at equal intervals from the center 11 of the touch area 10 toward the edge of the touch area. Can be grouped as:

상기와 같이 터치 영역이 그룹화되면 터치 입력 인식 장치는 그룹화된 각각의 그룹에 속하는 좌표값들의 정보로 구성된 그룹 좌표값 정보를 저장하고, 사용자가 터치 영역에 소정의 터치 궤적을 입력하면 입력된 터치 궤적의 시작 위치에 대응되는 좌표값과 터치 궤적의 종료 위치에 대응되는 좌표값을 상기 저장된 그룹 좌표값 정보와 비교하여 사용자가 제공한 터치 궤적이 시작된 그룹과 터치 궤적이 종료된 그룹을 판단한다.When the touch areas are grouped as described above, the touch input recognizing apparatus stores group coordinate value information including information on coordinate values belonging to each grouped group, and when the user inputs a predetermined touch trajectory in the touch area, the input touch trajectory is input. The coordinate value corresponding to the start position of and the coordinate value corresponding to the end position of the touch trajectory are compared with the stored group coordinate value information to determine a group in which the touch trajectory provided by the user starts and a group in which the touch trajectory is terminated.

그리고, 터치 입력 인식 장치는 터치 궤적이 시작된 그룹과 터치 궤적이 종료된 그룹 사이의 거리에 기초하여 실행 이벤트를 결정한다.The touch input recognizing apparatus determines an execution event based on the distance between the group in which the touch trajectory is started and the group in which the touch trajectory is terminated.

예를 들어, 도 1의 (a)에 도시된 바와 같이 사용자가 터치 스크린의 그룹화된 터치 영역 중 제3 그룹(23)부터 제 6 그룹(26)까지 터치 궤적으로 직선(30)을 그린 경우, 터치 입력 인식 장치는 터치 궤적의 시작 위치(31)에 대응되는 좌표값과 터치 궤적의 종료 위치(33)에 대응되는 좌표값을 터치 스크린으로부터 제공받고, 제공받은 좌표값들을 미리 저장된 그룹 좌표값 정보와 비교하여 터치 궤적이 제3 그룹(23)부터 제6 그룹(26) 까지 세 개의 그룹에 걸쳐 그려졌음을 판단한다.For example, as illustrated in FIG. 1A, when the user draws a straight line 30 with a touch trajectory from the third group 23 to the sixth group 26 of the grouped touch regions of the touch screen, The touch input recognizing apparatus receives coordinate values corresponding to the start position 31 of the touch trace and coordinate values corresponding to the end position 33 of the touch trace from the touch screen, and stores the received coordinate values in advance in the group coordinate value information. It is determined that the touch trajectory is drawn over three groups from the third group 23 to the sixth group 26 as compared with the above.

이후, 터치 입력 인식 장치는 터치 궤적이 그려진 그룹간의 거리를 3으로 판단하고, 이에 상응하는 실행 이벤트를 결정한 후 결정된 실행 이벤트를 실행한다.Thereafter, the touch input recognizing apparatus determines a distance between the groups in which the touch trace is drawn as 3, determines a corresponding execution event, and executes the determined execution event.

예를 들어, 터치 스크린에 소정의 이미지가 표시된 경우 상기와 같이 세 개의 그룹에 걸쳐 터치 입력이 제공되면, 터치 입력 인식 장치는 상기 터치 입력에 상응하는 실행 이벤트를 이미지 확대로 결정할 수 있고, 터치 궤적이 그려진 제3 그룹과 제6 그룹의 거리에 기초하여 이미지의 확대 배율을 3배(즉, 각 그룹의 거리를 1배로 가정)로 결정할 수 있다.For example, when a predetermined image is displayed on the touch screen, if a touch input is provided over three groups as described above, the touch input recognition apparatus may determine an execution event corresponding to the touch input as an image enlargement, and touch trajectory. Based on the distance between the drawn third group and the sixth group, the magnification of the image may be determined to be three times (that is, assuming that the distance of each group is one time).

또한, 터치 입력 인식 장치는 터치 궤적의 시작 위치에 대응되는 좌표값과 터치 궤적의 종료 위치에 대응되는 좌표값의 변화량을 계산하여 터치 궤적이 그려진 방향을 판단할 수 있다.Also, the touch input recognizing apparatus may determine a direction in which the touch trace is drawn by calculating a change amount of the coordinate value corresponding to the start position of the touch trace and the coordinate value corresponding to the end position of the touch trace.

예를 들어, 터치 궤적의 시작 위치에 대응되는 좌표값과 터치 궤적의 종료 위치에 대응되는 좌표값을 비교한 결과, X값의 변화량보다 Y값의 변화량이 큰 경우에는 터치 궤적이 세로 방향으로 그려진 것으로 판단하고, Y값의 변화량보다 X값의 변화량이 큰 경우에는 터치 궤적이 가로 방향으로 그려진 것으로 판단할 수 있다. For example, as a result of comparing the coordinate value corresponding to the start position of the touch trace and the coordinate value corresponding to the end position of the touch trace, when the change amount of the Y value is greater than the change amount of the X value, the touch trace is drawn in the vertical direction. If the amount of change in the X value is greater than the amount of change in the Y value, it may be determined that the touch trajectory is drawn in the horizontal direction.

또한, 터치 입력 인식 장치는 터치 스크린으로부터 제공된 터치 궤적의 시작 위치의 좌표값 및 터치 궤적의 종료 위치의 좌표값 중 X값 또는 Y값의 증감 특징에 기초하여 터치 궤적이 그려진 상하좌우의 방향을 판단할 수 있다.Also, the touch input recognizing apparatus determines the up, down, left, and right directions in which the touch trajectory is drawn based on the increase / decrease characteristic of the X value or the Y value among the coordinate values of the start position of the touch trajectory and the end position of the touch trajectory provided from the touch screen. can do.

예를 들어, 상기 시작 위치의 좌표값 및 종료 위치값의 좌표값에서 Y값의 변화량보다 X값의 변화량이 크면 터치 궤적이 수평방향으로 그려진 것으로 판단할 수 있고, X값이 증가하면 터치 궤적이 좌에서 우로 그려진 것으로 판단하고, X값이 감소하면 우에서 좌로 터치 궤적이 그려진 것으로 판단할 수 있다.For example, when the change amount of the X value is greater than the change amount of the Y value in the coordinate values of the start position and the end position value, it may be determined that the touch trace is drawn in the horizontal direction. It may be determined that the drawing is drawn from left to right, and if the value of X decreases, the touch trajectory may be determined from right to left.

도 1의 (a)에서는 터치 영역의 그룹화가 터치 영역의 중심을 기준으로 등간격으로 형성된 동심원에 의해 이루어지는 것으로 예를 들었으나, 터치 영역의 그룹화는 터치 스크린에 표시되는 메뉴, 실행 화면, 그래픽 정보 등과 같은 사용자 인터페이스의 종류에 상응하여 각각 다른 형태로 이루어질 수 있다.In FIG. 1A, the grouping of the touch areas is performed by concentric circles formed at equal intervals with respect to the center of the touch area. However, the grouping of the touch areas may include menus, execution screens, and graphic information displayed on the touch screen. Each may be formed in a different form according to the type of the user interface.

예를 들어, 터치 스크린에 소정의 이미지가 표시되는 경우, 도 1의 (a)에 도시된 바와 같은 터치 영역의 그룹화가 설정되어, 사용자가 입력한 터치 궤적에 기초하여 터치 스크린에 표시된 이미지가 소정 배율로 확대되거나 축소되도록 구성될 수 있다. For example, when a predetermined image is displayed on the touch screen, grouping of the touch areas as shown in FIG. 1A is set, and the image displayed on the touch screen is predetermined based on the touch trajectory input by the user. It may be configured to be enlarged or reduced in magnification.

또는, 터치 스크린에 소정 응용프로그램과 관련된 파일 목록이 표시된 경우에는, 도 1의 (b)에 도시된 바와 같이 터치 영역의 중심을 기준으로 등간격으로 그려진 가상의 사각형에 의해 그룹화가 설정되고 사용자의 터치 입력에 기초하여 파일 목록(예를 들면, 사진 앨범 또는 음악파일 리스트)이 소정 개수 스킵(skip) 되도록 구성될 수도 있다.Alternatively, when a list of files related to a predetermined application is displayed on the touch screen, grouping is set by virtual rectangles drawn at equal intervals based on the center of the touch area as shown in FIG. The file list (eg, a photo album or a music file list) may be skipped a predetermined number based on the touch input.

또는, 터치 스크린에 소정의 텍스트가 표시되는 경우에는, 도 1의 (c)에 도시된 바와 같이 터치 영역을 메시(mesh) 모양으로 그룹화하고, 그룹화된 영역에 제공되는 터치 궤적에 기초하여 텍스트가 소정 방향 및 소정 속도로 스크롤(scroll) 되도록 구성될 수도 있다.Alternatively, when predetermined text is displayed on the touch screen, as shown in FIG. 1C, the touch areas are grouped in a mesh shape, and the text is displayed based on the touch trajectories provided to the grouped areas. It may be configured to scroll in a predetermined direction and at a predetermined speed.

도 2는 본 발명의 일 실시예에 따른 터치 입력 인식 과정을 나타내는 흐름도로서, 도 1에 도시된 바와 같이 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화된 것으로 가정한다.FIG. 2 is a flowchart illustrating a touch input recognition process according to an exemplary embodiment of the present invention. As illustrated in FIG. 1, it is assumed that touch areas of a touch screen are grouped into a predetermined number of groups.

도 2를 참조하면, 먼저 사용자의 조작 또는 기설정된 동작 방법(예를 들면, 부팅)에 의해 터치 스크린에 소정의 사용자 인터페이스 화면이 표시되면(단계 201), 터치 입력 인식 장치는 터치 스크린에 표시된 사용자 인터페이스 화면에 상응하여 터치 영역을 소정 개수의 그룹으로 그룹화한다(단계 203).Referring to FIG. 2, if a predetermined user interface screen is displayed on the touch screen by a user's operation or a predetermined operation method (for example, booting) (step 201), the touch input recognition device may display the user displayed on the touch screen. The touch areas are grouped into a predetermined number of groups according to the interface screen (step 203).

여기서, 터치 영역은 터치 스크린에 표시된 사용자 인터페이스의 종류에 상응하여 서로 다른 모양으로 그룹화될 수 있다.In this case, the touch areas may be grouped into different shapes according to the type of the user interface displayed on the touch screen.

예를 들어, 사용자의 조작에 의해 소정의 이미지가 터치 스크린에 표시되면, 터치 입력 인식 장치는 도 1의 (a)에 도시된 바와 같이 복수의 가상 동심원을 통해 터치 스크린을 소정 개수의 그룹으로 그룹화할 수 있고, 터치 스크린에 소정의 텍스트가 표시되는 경우에는 이에 상응하여 터치 영역이 도 1의 (c)에 도시된 바와 같이 메시 모양으로 그룹화될 수 있다.For example, when a predetermined image is displayed on the touch screen by a user's manipulation, the touch input recognizing apparatus groups the touch screen into a predetermined number of groups through a plurality of virtual concentric circles as shown in FIG. When predetermined text is displayed on the touch screen, the touch areas may be grouped in a mesh shape as shown in FIG. 1C.

또는, 본 발명의 다른 실시예에서는 터치 스크린에 표시되는 사용자 인터페이스 화면에 무관하게 터치 영역이 단일 형태로 그룹화되도록 구성될 수도 있다.Alternatively, in another embodiment of the present invention, the touch areas may be grouped into a single form regardless of the user interface screen displayed on the touch screen.

이후, 사용자가 터치 스크린의 그룹화된 터치 영역에 소정 형태의 터치 궤적을 가지는 터치 입력을 제공하면, 터치 스크린은 터치 궤적의 시작 위치에 대응되는 좌표값 및 터치 궤적의 종료 위치에 대한 좌표값을 제공한다(단계 205).Thereafter, when the user provides a touch input having a touch trajectory of a predetermined type to the grouped touch regions of the touch screen, the touch screen provides a coordinate value corresponding to the start position of the touch trajectory and a coordinate value for the end position of the touch trajectory. (Step 205).

터치 입력 인식 장치는 터치 스크린으로부터 제공된 상기 터치 궤적의 시작 위치에 대한 좌표값 및 터치 궤적의 종료 위치에 대한 좌표값을 미리 저장된 그룹 좌표값 정보와 비교하여 각 좌표값에 대응되는 그룹을 판단한다(단계 207). The touch input recognizing apparatus determines a group corresponding to each coordinate value by comparing the coordinate value for the start position of the touch trajectory and the end position of the touch trajectory provided from the touch screen with previously stored group coordinate value information ( Step 207).

여기서, 그룹 좌표값 정보는 단계 203에서 그룹화된 터치 영역의 각각의 그룹에 포함된 좌표값들에 대한 정보로 터치 입력 인식 장치의 저장부에 미리 저장될 수 있다.Here, the group coordinate value information may be previously stored in the storage unit of the touch input recognizing apparatus as information on the coordinate values included in each group of the touch regions grouped in step 203.

또한, 터치 입력 인식 장치는 단계 205에서 제공된 터치 궤적의 시작 위치에 대응되는 좌표값 및 터치 궤적의 종료 위치에 대한 좌표값에 기초하여 터치 궤적의 방향을 판단한다(단계 209).Also, the touch input recognizing apparatus determines the direction of the touch trajectory based on the coordinate value corresponding to the start position of the touch trajectory provided in step 205 and the coordinate value for the end position of the touch trajectory (step 209).

구체적으로, 터치 입력 인식 장치는 터치 궤적의 시작 위치에 대응되는 좌표값(X1,Y1)과 터치 궤적의 종료 위치에 대응되는 좌표값(X2,Y2)의 X값 변화량(즉, X2-X1) 및 Y값 변화량(즉, Y2-Y1)을 비교하여 X값의 변화량보다 Y값의 변화량이 큰 경우에는 터치 궤적이 세로 방향으로 그려진 것으로 판단하고, Y값의 변화량보다 X값의 변화량이 큰 경우에는 터치 궤적이 가로 방향으로 그려진 것으로 판단한다.In detail, the touch input recognizing apparatus may change the X value of the coordinate values (X 1 , Y 1 ) corresponding to the start position of the touch trace and the coordinate values (X 2 , Y 2 ) corresponding to the end position of the touch trace (that is, When X 2 -X 1 ) and Y value change amount (that is, Y 2 -Y 1 ) are larger than the change amount of the X value, it is determined that the touch trace is drawn in the vertical direction, and the change amount of the Y value is determined. When the change amount of X value is larger than that, it is determined that the touch trace is drawn in the horizontal direction.

또한, 터치 입력 인식 장치는 터치 스크린으로부터 제공된 터치 궤적의 시작 위치의 좌표값(X1,Y1) 및 터치 궤적의 종료 위치의 좌표값(X2,Y2) 중 X값 또는 Y값의 증감 특징에 기초하여 터치 궤적이 그려진 상하좌우의 방향을 판단할 수 있다.In addition, the touch input recognizing apparatus increases or decreases an X value or a Y value among the coordinate values (X 1 , Y 1 ) of the start position of the touch trajectory and the coordinate values (X 2 , Y 2 ) of the end position of the touch trajectory provided from the touch screen. Based on the feature, the directions of the top, bottom, left and right where the touch trace is drawn may be determined.

예를 들어, X값이 증가하면 터치 궤적이 좌에서 우로 그려진 것으로 판단하고, X값이 감소하면 우에서 좌로 터치 궤적이 그려진 것으로 판단할 수 있다. 또한, Y값이 증가하면 터치 궤적이 아래에서 위로 그려진 것으로 판단하고, Y값이 감소하면 터치 궤적이 위에서 아래로 그려진 것으로 판단할 수 있다.For example, if the X value is increased, it may be determined that the touch trajectory is drawn from left to right, and if the X value is decreased, it may be determined that the touch trajectory is drawn from right to left. In addition, when the Y value increases, it may be determined that the touch trajectory is drawn upward from the bottom, and when the Y value decreases, it may be determined that the touch trajectory is drawn downward from the top.

이후, 터치 입력 인식 장치는 단계 207에서 판단된 터치 궤적의 시작 위치 및 종료 위치에 각각 대응되는 그룹 및/또는 단계 209에서 판단된 터치 궤적의 방향을 고려하여 터치 입력에 상응하는 실행 이벤트를 결정하고(단계 211), 결정된 실행 이벤트를 실행한다(단계 213).Thereafter, the touch input recognizing apparatus determines an execution event corresponding to the touch input in consideration of the group corresponding to the start position and the end position of the touch trace determined in step 207 and / or the direction of the touch trace determined in step 209. (Step 211), the determined execution event is executed (step 213).

예를 들어, 터치 스크린에 소정의 이미지가 표시되어 있고, 터치 궤적이 동심원에 의해 그룹화된 터치 영역의 제1 그룹에서 제3 그룹까지 그려진 경우, 터치 입력 인식 장치는 터치 스크린에 표시된 이미지를 3배 확대하도록 구성될 수 있다.For example, if a predetermined image is displayed on the touch screen, and the touch trajectory is drawn from the first group to the third group of the touch areas grouped by concentric circles, the touch input recognition device triples the image displayed on the touch screen. It can be configured to enlarge.

또는, 터치 스크린에 소정의 이미지가 표시되어 있고 터치 궤적이 동심원에 의해 그룹화된 터치 영역의 제1 그룹에서 제3 그룹까지 그려진 경우, 터치 궤적이 오른쪽에서 왼쪽으로 그려진 것으로 판단되면 상기 이미지를 3배 확대하고, 터치 궤적이 왼쪽에서 오른쪽으로 그려진 것으로 판단되면, 상기 이미지를 3배 축소하도록 구성될 수도 있다.Alternatively, when a predetermined image is displayed on the touch screen and the touch trace is drawn from the first group to the third group of the touch regions grouped by concentric circles, the image is tripled if the touch trace is determined to be drawn from right to left. If the image is enlarged and the touch trajectory is determined to be drawn from left to right, the image may be reduced by three times.

즉, 본 발명의 일 실시예에 따른 터치 입력 인식 방법에서는 사용자가 그린 터치 궤적의 시작 위치에 대응되는 그룹과 종료 위치에 대응되는 그룹 사이의 거리에 기초하여 실행될 이벤트를 결정할 수도 있고, 상기 그룹 사이의 거리 및 터치 궤적의 방향을 동시에 고려하여 실행될 이벤트를 결정할 수도 있다.That is, in the touch input recognition method according to an embodiment of the present invention, the user may determine an event to be executed based on the distance between the group corresponding to the start position of the green touch trace and the group corresponding to the end position, and between the groups. The event to be executed may be determined in consideration of the distance and the direction of the touch trace at the same time.

도 3은 본 발명의 일 실시예에 따른 터치 입력 인식 장치의 구성을 나타내는 블록도로서, 터치 입력 인식 장치의 예로 터치 스크린을 구비한 휴대용 단말기를 도시하였다.3 is a block diagram illustrating a configuration of a touch input recognition device according to an embodiment of the present invention, and illustrates a portable terminal having a touch screen as an example of the touch input recognition device.

도 3을 참조하면, 본 발명의 일 실시예에 따른 터치 입력 인식 방법을 수행하는 휴대용 단말기는 터치 스크린(310), 제어부(320), 저장부(330), 마이크(340), 스피커(350) 및 무선 송수신부(360)를 포함하여 구성될 수 있다.Referring to FIG. 3, a portable terminal performing a touch input recognition method according to an embodiment of the present invention may include a touch screen 310, a controller 320, a storage 330, a microphone 340, and a speaker 350. And it may be configured to include a wireless transceiver 360.

터치 스크린(310)은 압력식 저항막 방식 또는 정전용량 방식의 터치 스크린으로 구성될 수 있고, 터치된 궤적에 대응되는 좌표값(X,Y)들을 제어부(320)에 제공한다.The touch screen 310 may be configured as a pressure resistive touch screen or a capacitive touch screen, and provides the controller 320 with coordinate values X and Y corresponding to the touched trajectory.

또한, 터치 스크린(310)은 제어부(320)의 제어에 기초하여 휴대용 단말기의 메뉴나 실행된 응용프로그램의 실행 화면 등과 같은 그래픽 기반의 사용자 인터페이스 화면을 표시한다.In addition, the touch screen 310 displays a graphical user interface screen such as a menu of a portable terminal or an execution screen of an executed application program based on the control of the controller 320.

제어부(320)는 사용자가 터치 스크린(310)에 표시된 버튼을 조작하거나, 휴대용 단말기에 전원이 인가되어 휴대용 단말기가 부팅이 완료된 후 터치 스크린(310)에 소정의 사용자 인터페이스 화면이 표시되면 터치 스크린(310)에 표시된 사용자 인터페이스 화면에 상응하여 터치 영역을 소정 개수의 그룹으로 그룹화한다.If the user manipulates a button displayed on the touch screen 310 or power is supplied to the portable terminal and the booting of the portable terminal is completed, a predetermined user interface screen is displayed on the touch screen 310. The touch areas are grouped into a predetermined number of groups corresponding to the user interface screen displayed at 310.

여기서, 제어부(320)는 터치 스크린에 표시되는 사용자 인터페이스, 메뉴 또는 사용자의 조작에 의해 실행되는 응용프로그램의 종류에 기초하여 터치 영역을 서로 다른 유형으로 그룹화할 수 있다.Here, the controller 320 may group the touch areas into different types based on the type of the user interface displayed on the touch screen, a menu, or an application executed by a user's operation.

상기 터치 영역의 그룹화는 휴대용 단말기의 제조시에 고정적으로 설정될 수 있고, 제어부(320)가 휴대용 단말기에 발생된 이벤트(예를 들면, 사용자 인터페이스, 메뉴 표시 또는 응용프로그램의 실행)에 기초하여 미리 정해진 터치 영역의 그룹화 형태를 활성화시킬 수 있다.The grouping of the touch areas may be fixedly set at the time of manufacture of the portable terminal, and the control unit 320 may advance in advance based on an event (eg, a user interface, a menu display or an execution of an application) generated in the portable terminal. The grouping form of the predetermined touch region may be activated.

제어부(320)는 사용자가 터치 스크린(310)의 그룹화된 터치 영역에 소정 형태의 터치 궤적을 그리면, 터치 스크린(310)으로부터 터치된 궤적의 시작 위치에 대응되는 좌표값 및 터치 궤적의 종료 위치에 대한 좌표값을 제공받고, 상기 터치 궤적의 시작 위치에 대한 좌표값 및 터치 궤적의 종료 위치에 대한 좌표값을 저장부(330)에 미리 저장된 그룹 좌표값 정보와 비교하여 각 좌표값에 대응되는 그룹을 판단한다.When the user draws a touch trajectory of a predetermined type on the grouped touch regions of the touch screen 310, the controller 320 moves to a coordinate value corresponding to the start position of the trajectory touched by the touch screen 310 and the end position of the touch trajectory. A group corresponding to each coordinate value by receiving a coordinate value for the comparison and comparing the coordinate value for the start position of the touch trace and the coordinate value for the end position of the touch trajectory with the group coordinate value information previously stored in the storage unit 330. Judge.

또한, 제어부(320)는 터치 스크린(310)으로부터 제공된 터치 궤적의 시작 위치에 대응되는 좌표값 및 터치 궤적의 종료 위치에 대한 좌표값에 기초하여 터치 궤적의 방향을 판단한다.In addition, the controller 320 determines the direction of the touch trajectory based on the coordinate value corresponding to the start position of the touch trajectory provided from the touch screen 310 and the coordinate value for the end position of the touch trajectory.

이후, 제어부(320)는 판단된 터치 궤적의 시작 위치 및 종료 위치에 각각 대응되는 그룹 및/또는 판단된 터치 궤적의 방향을 고려하여 터치 입력에 상응하는 실행 이벤트를 결정하고, 결정된 실행 이벤트를 실행한다.Thereafter, the controller 320 determines an execution event corresponding to the touch input in consideration of the group corresponding to the determined start position and the end position of the touch trace and / or the determined direction of the touch trace, and executes the determined execution event. do.

상기한 바와 같은 제어부(320)의 기능은 소프트웨어 프로그램으로 구현될 수 있는 터치 입력 인식 모듈(321)에 의해 수행될 수도 있고, 별도의 반도체 칩으로 구현될 수도 있다.The function of the controller 320 as described above may be performed by the touch input recognition module 321, which may be implemented as a software program, or may be implemented as a separate semiconductor chip.

제어부(320)는 음성 통화시 송수신 되는 음성 데이터를 처리하기 위한 음성 코덱(323)을 포함할 수 있다. 음성 코덱(323)은 마이크(340)로부터 제공된 사용자의 음성을 제공받고 이를 디지털 신호로 변환한 후 변환된 디지털 신호를 음성 통화 규격에 적합하도록 인코딩한 후 무선 송수신부(360)에 제공함으로써 음성 통화 상대방의 휴대용 단말기로 전송되도록 한다.The controller 320 may include a voice codec 323 for processing voice data transmitted and received during a voice call. The voice codec 323 receives a user's voice provided from the microphone 340, converts it into a digital signal, encodes the converted digital signal to comply with a voice call standard, and then provides the voice call to the wireless transceiver 360. It is transmitted to the other party's portable terminal.

또한, 음성 코덱(323)은 무선 송수신부(360)를 통해 음성 통화 상대방의 휴대용 단말기로부터 제공된 상대방의 음성을 디코딩한 후 아날로그 신호로 변환하여 스피커(350)에 제공한다.In addition, the voice codec 323 decodes the voice of the counterpart provided from the portable terminal of the voice call counterpart through the wireless transceiver 360 and converts the voice of the counterpart into an analog signal and provides it to the speaker 350.

저장부(330)는 플래쉬(Flash) 메모리, EEPROM(Electrically Erasable And Programmable Read Only Memory) 등과 같은 비휘발성 메모리로 구성될 수 있고, 터치 스크린(310)에 표시되는 사용자 인터페이스에 대응되는 그룹 좌표값 정보가 저 장된다.The storage unit 330 may be configured of a nonvolatile memory such as a flash memory, an electrically erasable and programmable read only memory (EEPROM), and the like, and the group coordinate value information corresponding to the user interface displayed on the touch screen 310 Is stored.

또한, 저장부(330)에는 적어도 하나의 터치 입력 유형 각각에 대응되는 실행 이벤트(예를 들면, 응용프로그램 실행, 메뉴 이동, 그래픽 정보의 확대/축소, 이미지 스크롤 등) 목록이 저장될 수 있다.In addition, the storage unit 330 may store a list of execution events corresponding to each of the at least one touch input type (for example, executing an application program, moving a menu, expanding / reducing graphic information, scrolling an image, etc.).

여기서, 상기 그룹 좌표값 정보는 소정의 메뉴, 기능 또는 사용자 인터페이스에 상응하여 터치 스크린(310)의 터치 영역이 각각 그룹화된 경우, 상기 각각 그룹화된 터치 영역의 각 그룹에 포함된 좌표값들로 구성된다. Here, the group coordinate value information includes coordinate values included in each group of each of the grouped touch areas when the touch areas of the touch screen 310 are grouped according to a predetermined menu, function, or user interface. do.

마이크(340)는 음성 통화시 사용자 즉, 발신자의 음성을 입력받고 이를 전기신호로 변환한 후 제어부(320)에 제공한다. 또한, 스피커(350)는 음성 코덱(423)으로부터 디코딩된 음성 통화 상대방의 음성 신호를 제공받고 이를 가청 주파수 대역의 신호로 출력한다.The microphone 340 receives a voice of a user, that is, a caller, during a voice call, converts the voice into an electrical signal, and provides the same to the controller 320. In addition, the speaker 350 receives the voice signal of the voice call counterpart decoded by the voice codec 423 and outputs it as a signal of an audible frequency band.

무선 송수신부(360)는 공지된 기술에 해당하므로 상세하게 도시하지는 않았으나, 듀플렉서, 고주파 처리부 및 중간 주파수 처리부를 포함할 수 있고, 안테나(ANT)에 유기된 무선 고주파 신호(RF: Radio Frequency)를 듀플렉서를 통해 수신하고 수신된 무선 고주파 신호를 중간 주파수(Intermediate Frequency)로 변환한 후 다시 베이스 밴드(baseband) 신호로 변환하여 제어부(320)에 제공하고, 제어부(320)로부터 제공되는 베이스 밴드 신호를 중간 주파수로 변환한 후 중간 주파수의 신호를 다시 무선 고주파 신호로 변환하여 듀플렉서를 통해 안테나(ANT)에 제공할 수 있다.Since the wireless transceiver 360 is a well-known technology and is not shown in detail, the wireless transceiver 360 may include a duplexer, a high frequency processor, and an intermediate frequency processor. The radio frequency signal received through the duplexer and converted to the intermediate frequency (Intermediate Frequency) and then converted to a baseband (baseband) signal to provide to the control unit 320, the baseband signal provided from the control unit 320 After converting to an intermediate frequency, the signal of the intermediate frequency may be converted into a wireless high frequency signal and provided to the antenna ANT through a duplexer.

또는, 무선 송수신부(360)는 상기와 같은 고주파 신호를 중간 주파수 변환을 거쳐 베이스 밴드 신호로 복조하는 헤테로다인 수신 방식 대신 주파수 변환 없이 수신된 고주파 신호에서 직접 신호를 복조하는 직접 변환 방식을 사용할 수도 있다.Alternatively, the wireless transmission / reception unit 360 may use a direct conversion method that directly demodulates a signal from a high frequency signal received without frequency conversion instead of a heterodyne reception method that demodulates the high frequency signal into a baseband signal through an intermediate frequency conversion. have.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

도 1은 본 발명의 일 실시예에 따른 터치 입력 인식 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a touch input recognition method according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 터치 입력 인식 과정을 나타내는 흐름도이다.2 is a flowchart illustrating a touch input recognition process according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 터치 입력 인식 장치의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a touch input recognition device according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

310 : 터치 스크린 320 : 제어부310: touch screen 320: control unit

321 : 터치 입력 인식 모듈 430 : 저장부321: Touch input recognition module 430: Storage unit

Claims (14)

터치 스크린을 구비한 장치의 터치 입력 인식 방법에 있어서,In the touch input recognition method of a device having a touch screen, 상기 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화되는 단계;Grouping touch areas of the touch screen into a predetermined number of groups; 상기 그룹화된 터치 스크린에 터치 입력이 제공되는 단계;Providing touch input to the grouped touch screens; 상기 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하는 단계; 및Determining a first group corresponding to a start coordinate value at which the touch input starts and a second group corresponding to an end coordinate value at which the touch input ends; And 상기 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 단계를 포함하는 터치 입력 인식 방법.And determining an execution event based on the determined first group and the second group. 제1항에 있어서, 상기 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화 되는 단계는,The method of claim 1, wherein the touch areas of the touch screen are grouped into a predetermined number of groups. 터치 스크린의 중심 좌표를 기준으로 반지름이 소정 길이만큼 일정하게 증가하는 소정 개수의 가상의 동심원에 의해 그룹화되는 것을 특징으로 하는 터치 입력 인식 방법.And a group of virtual concentric circles whose radius is constantly increased by a predetermined length based on the center coordinates of the touch screen. 제1항에 있어서, 상기 터치 스크린의 터치 영역이 소정 개수의 그룹으로 그룹화되는 단계는, The method of claim 1, wherein the touch areas of the touch screen are grouped into a predetermined number of groups. 터치 스크린에 표시되는 사용자 인터페이스의 종류에 기초하여 서로 다른 모양으로 그룹화되는 것을 특징으로 하는 터치 입력 인식 방법.Touch input recognition method, characterized in that the grouping in different shapes based on the type of the user interface displayed on the touch screen. 제1항에 있어서, 상기 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하는 단계는,The method of claim 1, wherein the determining of the first group corresponding to the start coordinate value at which the touch input starts and the second group corresponding to the end coordinate value at which the touch input ends are as follows: 상기 시작 좌표값 및 상기 종료 좌표값을 미리 저장된 각 그룹의 좌표값들과 비교하여 상기 제1 그룹 및 상기 제2 그룹을 판단하는 것을 특징으로 하는 터치 입력 인식 방법.And determining the first group and the second group by comparing the start coordinate value and the end coordinate value with previously stored coordinate values of each group. 제1항에 있어서, 상기 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하는 단계는,The method of claim 1, wherein the determining of the first group corresponding to the start coordinate value at which the touch input starts and the second group corresponding to the end coordinate value at which the touch input ends are as follows: 상기 시작 좌표값 및 상기 종료 좌표값의 변화량에 기초하여 상기 터치 입력의 방향을 판단하는 것을 특징으로 하는 터치 입력 인식 방법.And determining the direction of the touch input based on the change amount of the start coordinate value and the end coordinate value. 제5항에 있어서, 상기 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 단계는,The method of claim 5, wherein the determining of the execution event based on the determined first group and the second group comprises: 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리에 기초하여 실행 이벤트를 결정하는 것을 특징으로 하는 터치 입력 인식 방법.And determining an execution event based on the determined distance between the first group and the second group. 제6항에 있어서, 상기 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트 를 결정하는 단계는,The method of claim 6, wherein the determining of the execution event based on the determined first group and the second group comprises: 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리와 상기 터치 입력의 방향에 기초하여 실행 이벤트를 결정하는 것을 특징으로 하는 터치 입력 인식 방법.And determining an execution event based on a distance between the determined first group and the second group and a direction of the touch input. 사용자 인터페이스 화면을 표시하고, 터치된 궤적에 대응되는 좌표값을 제공하는 터치 스크린; 및A touch screen displaying a user interface screen and providing coordinate values corresponding to the touched trajectory; And 상기 터치 스크린의 터치 영역을 소정 개수의 그룹으로 그룹화하고, 상기 터치 스크린으로부터 제공된 좌표값들에 기초하여 터치 입력이 시작되는 시작 좌표값에 해당하는 제1 그룹 및 상기 터치 입력이 종료되는 종료 좌표값에 해당하는 제2 그룹을 판단하고, 판단된 제1 그룹 및 제2 그룹에 기초하여 실행 이벤트를 결정하는 제어부를 포함하는 터치 입력 인식 장치.Grouping the touch areas of the touch screen into a predetermined number of groups, and based on the coordinate values provided from the touch screen, a first group corresponding to a start coordinate value at which a touch input starts and an end coordinate value at which the touch input ends And a controller configured to determine a second group corresponding to and to determine an execution event based on the determined first group and the second group. 제8항에 있어서, 상기 제어부는The method of claim 8, wherein the control unit 상기 터치 스크린의 중심 좌표를 기준으로 반지름이 소정 길이만큼 일정하게 증가하는 소정 개수의 가상의 동심원에 기초하여 상기 터치 영역을 그룹화하는 것을 특징으로 하는 터치 입력 인식 장치.And the touch areas are grouped based on a predetermined number of virtual concentric circles whose radius is constantly increased by a predetermined length based on the center coordinates of the touch screen. 제8항에 있어서, 상기 제어부는The method of claim 8, wherein the control unit 터치 스크린에 표시되는 사용자 인터페이스의 종류에 기초하여 서로 다른 모양으로 상기 터치 영역을 그룹화하는 것을 특징으로 하는 터치 입력 인식 장치.And classifying the touch areas into different shapes based on the type of the user interface displayed on the touch screen. 제8항에 있어서, 상기 제어부는The method of claim 8, wherein the control unit 상기 시작 좌표값 및 상기 종료 좌표값을 미리 저장된 각 그룹의 좌표값들과 비교하여 상기 제1 그룹 및 상기 제2 그룹을 판단하는 것을 특징으로 하는 터치 입력 인식 장치.And determining the first group and the second group by comparing the start coordinate value and the end coordinate value with previously stored coordinate values of each group. 제8항에 있어서, 상기 제어부는The method of claim 8, wherein the control unit 상기 시작 좌표값 및 상기 종료 좌표값의 변화량에 기초하여 상기 터치 입력의 방향을 판단하는 것을 특징으로 하는 터치 입력 인식 장치.And determining the direction of the touch input based on the change amount of the start coordinate value and the end coordinate value. 제12항에 있어서, 상기 제어부는The method of claim 12, wherein the control unit 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리에 기초하여 실행 이벤트를 결정하는 것을 특징으로 하는 터치 입력 인식 장치.And determining an execution event based on the determined distance between the first group and the second group. 제13항에 있어서, 상기 제어부는The method of claim 13, wherein the control unit 상기 판단된 제1 그룹 및 상기 제2 그룹 사이의 거리와 상기 터치 입력의 방향에 기초하여 실행 이벤트를 결정하는 것을 특징으로 하는 터치 입력 인식 장치.And determining an execution event based on a distance between the determined first group and the second group and a direction of the touch input.
KR1020080066855A 2008-07-10 2008-07-10 Method for recognizing touch input and apparatus for performing the same KR20100006643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080066855A KR20100006643A (en) 2008-07-10 2008-07-10 Method for recognizing touch input and apparatus for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080066855A KR20100006643A (en) 2008-07-10 2008-07-10 Method for recognizing touch input and apparatus for performing the same

Publications (1)

Publication Number Publication Date
KR20100006643A true KR20100006643A (en) 2010-01-21

Family

ID=41815746

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080066855A KR20100006643A (en) 2008-07-10 2008-07-10 Method for recognizing touch input and apparatus for performing the same

Country Status (1)

Country Link
KR (1) KR20100006643A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150143069A (en) * 2014-06-13 2015-12-23 (주)멜파스 Method and system for controlling locking using direction of touch and drag event
CN113064538A (en) * 2020-01-02 2021-07-02 佛山市云米电器科技有限公司 Equipment parameter setting method, intelligent refrigerator and computer readable storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150143069A (en) * 2014-06-13 2015-12-23 (주)멜파스 Method and system for controlling locking using direction of touch and drag event
CN113064538A (en) * 2020-01-02 2021-07-02 佛山市云米电器科技有限公司 Equipment parameter setting method, intelligent refrigerator and computer readable storage medium
CN113064538B (en) * 2020-01-02 2024-03-05 佛山市云米电器科技有限公司 Equipment parameter setting method, intelligent refrigerator and computer readable storage medium

Similar Documents

Publication Publication Date Title
KR101199618B1 (en) Apparatus and Method for Screen Split Displaying
KR101224588B1 (en) Method for providing UI to detect a multi-point stroke and multimedia apparatus thereof
CN106909305B (en) Method and apparatus for displaying graphical user interface
US8179371B2 (en) Method, system, and graphical user interface for selecting a soft keyboard
US20090289905A1 (en) Touch input recognition methods and apparatuses
US20140059460A1 (en) Method for displaying graphical user interfaces and electronic device using the same
US20100107067A1 (en) Input on touch based user interfaces
US20080259040A1 (en) Method, System, and Graphical User Interface for Positioning an Insertion Marker in a Touch Screen Display
US20100073303A1 (en) Method of operating a user interface
US20130234942A1 (en) Systems and Methods for Modifying Virtual Keyboards on a User Interface
US20150212591A1 (en) Portable electronic apparatus, and a method of controlling a user interface thereof
JP2000278391A (en) Portable telephone set having back handwriting input function
KR20180120768A (en) Man-machine interaction methods, devices and graphical user interfaces
JP2012505443A (en) Portable electronic device and method of secondary character rendering and input
WO2011118602A1 (en) Mobile terminal with touch panel function and input method for same
EP2392995A1 (en) Portable electronic device and method of controlling same
US10048726B2 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
US20110302491A1 (en) Portable electronic device and method of controlling same
US20140240262A1 (en) Apparatus and method for supporting voice service in a portable terminal for visually disabled people
US9298364B2 (en) Mobile electronic device, screen control method, and storage medium strong screen control program
KR20100006650A (en) Method for providing user interface in touch input recognizing apparatus and touch input recognizing device performing the same
JP2010152759A (en) Character input device, character input support method, and character input support program
US20090049404A1 (en) Input method and apparatus for device having graphical user interface (gui)-based display unit
KR20100006643A (en) Method for recognizing touch input and apparatus for performing the same
KR101229629B1 (en) Method of deliverying content between applications and apparatus for the same

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination