KR20160123702A - Touch sensing method and apparatus for identifying large object - Google Patents

Touch sensing method and apparatus for identifying large object Download PDF

Info

Publication number
KR20160123702A
KR20160123702A KR1020150054189A KR20150054189A KR20160123702A KR 20160123702 A KR20160123702 A KR 20160123702A KR 1020150054189 A KR1020150054189 A KR 1020150054189A KR 20150054189 A KR20150054189 A KR 20150054189A KR 20160123702 A KR20160123702 A KR 20160123702A
Authority
KR
South Korea
Prior art keywords
patch
touch
large object
variable
lines
Prior art date
Application number
KR1020150054189A
Other languages
Korean (ko)
Other versions
KR102335556B1 (en
Inventor
정윤호
김상연
임양빈
Original Assignee
주식회사 실리콘웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 실리콘웍스 filed Critical 주식회사 실리콘웍스
Priority to KR1020150054189A priority Critical patent/KR102335556B1/en
Publication of KR20160123702A publication Critical patent/KR20160123702A/en
Application granted granted Critical
Publication of KR102335556B1 publication Critical patent/KR102335556B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Abstract

The present invention provides a technology related to a method for identifying a large object such as a palm and a cheek. According to an embodiment of the present invention, a touch recognition apparatus counts the number of lines having the number of pixels for each patch which is greater than a threshold 1, and identifies the corresponding patch as a large object when the counted number of lines is greater than a threshold 2.

Description

라지 오브젝트를 식별하는 터치인식방법 및 장치{TOUCH SENSING METHOD AND APPARATUS FOR IDENTIFYING LARGE OBJECT}TECHNICAL FIELD [0001] The present invention relates to a touch recognition method and apparatus for identifying a large object,

본 발명은 터치를 인식하는 기술에 관한 것이다. 더욱 상세하게는 라지 오브젝트를 식별하는 터치 인식 기술에 관한 것이다. The present invention relates to a technique for recognizing a touch. And more particularly to a touch recognition technique for identifying a large object.

사용자 입력 장치로서 활용되어 오던 키보드 혹은 마우스는 별도의 장치를 포함하고 있다는 측면에서 표시장치의 경량화 및 슬림화에 부담이 되는 장치였다. 최근 활발히 도입되고 있는 터치인식기술은 이러한 측면에서 표시장치의 경량화 및 슬림화를 촉진하는 기폭제가 되고 있다.The keyboard or mouse, which has been utilized as a user input device, is a device that is burdened in weight and slimness of the display device in that it includes a separate device. Recently, the touch recognition technology, which is actively being introduced, is becoming a catalyst for promoting the weight and slimness of display devices in this respect.

터치인식기술은 주로 센서를 포함하고 있는 터치패널에 오브젝트가 근접하거나 접촉하였을 때 발생하는 신호를 감지하여 사용자의 입력 조작을 인식하는 기술로서 자기방식, 저항방식, 정전방식 등 다양한 방식이 사용되고 있으나 최근에는 정전방식이 대세를 이루고 있다.The touch recognition technology is a technique for recognizing a user's input operation by sensing a signal generated when an object comes in contact with or approaching a touch panel including a sensor, and various methods such as a magnetic method, a resistance method, and an electrostatic method are used The electrostatic discharge method is becoming popular.

사용자 입력 조작의 행태적 측면에서 보면, 터치인식기술은 종래 비교적 터치인식의 해상도가 높지 않아도 되었던 버튼터치인식 혹은 슬라이딩터치인식에서 최근에는 높은 터치인식 해상도를 요구하는 펜터치인식까지 발전해 오고 있다. 그런데, 최근 도입되고 있는 이러한 펜터치인식기술은 종래의 기술수준에서는 문제가 되지 않았던 새로운 유형의 문제가 나타나고 있어 이에 대한 해결책 마련이 요구되고 있다.From the viewpoint of the behavior of the user input operation, the touch recognition technology has been developed from the button touch recognition or the sliding touch recognition, which has not required a high resolution of the conventional touch recognition, to the pen touch recognition that requires a high touch recognition resolution. However, the pen-touch recognition technology that has been recently introduced has a new type of problem that has not been a problem at the level of the prior art, and a solution for this problem is required.

도 1은 사용자가 펜을 이용하여 터치패널을 터치하는 일 상황에서 터치로 인식될 수 있는 부분을 나타내는 도면이다.1 is a view showing a portion that can be recognized by a touch when the user touches the touch panel using a pen.

도 1의 좌측도면을 참조하면, 사용자(11)는 펜(12)을 이용하여 터치패널(10)을 터치한다. 도 1에서 터치패널(10)은 사용자(11)의 신체 접촉을 인식할 수 있을 뿐만 아니라 펜(12)의 접촉 또한 인식함으로써 사용자(11)가 펜(12)을 사용하여 터치 조작을 수행할 수 있게 한다. 사용자(11)의 신체는 정교한 형상-예를 들어, 터치를 위해 주로 사용되는 사용자의 손가락은 표면적이 넓고 정형화되지 않은 형상을 가짐-을 가지고 있지 않기 때문에 사용자(11)는 신체를 이용한 터치 조작을 통해 정교한 제어를 수행하기 어렵다. 이에 반해, 펜(12)은 정교한 형상(예를 들어, 원형이며 표면적인 작은 형상)을 가질 수 있기 때문에, 사용자(11)는 이러한 정교한 형상의 펜(12)을 사용하여 보다 세밀한 제어를 수행할 수 있다. 그런데, 사용자(11)는 펜(12)을 이용한 터치 조작 과정에서 도 1의 우측도면에 도시된 것과 같은 문제를 야기시킬 수 있다.1, the user 11 touches the touch panel 10 using the pen 12. [ 1, the touch panel 10 recognizes not only the physical contact of the user 11 but also the touch of the pen 12, so that the user 11 can perform the touch operation using the pen 12 Let's do it. Since the body of the user 11 does not have a sophisticated shape - for example, a user's finger, which is mainly used for touching, has a wide surface area and a non-standardized shape, the user 11 can perform a touch operation using the body It is difficult to perform sophisticated control. On the other hand, since the pen 12 can have a sophisticated shape (e.g., a circular shape and a small surface area), the user 11 can use the sophisticated pen 12 to perform finer control . However, the user 11 may cause a problem as shown in the right drawing of Fig. 1 during the touch operation process using the pen 12. Fig.

도 1의 우측도면은 도 1의 좌측도면과 같은 사용자 조작과정에서 사용자(11) 신체 및 펜(12)이 터치패널(10)과 접촉한 부분을 나타낸다. 도 1의 좌측도면을 참조하면, 사용자(11)가 펜(12)으로 터치패널(10)을 터치할 때, 손의 일부분이 펜(12)과 함께 터치패널(10)에 접촉되고 있다. 이에 따라, 터치패널(10)은 도 1의 우측도면에 도시된 것과 같이 손의 일부분이 터치된 부분(13)과 펜(12)이 터치된 부분(14)에서 터치센싱신호를 발생시킬 수 있다.1 shows a portion where the user 11 body and the pen 12 are in contact with the touch panel 10 in a user operation process as shown in the left drawing of FIG. 1, when the user 11 touches the touch panel 10 with the pen 12, a part of the hand is brought into contact with the touch panel 10 together with the pen 12. As shown in Fig. Accordingly, the touch panel 10 can generate a touch sensing signal in the portion 13 where the hand portion is touched and the portion 14 in which the pen 12 is touched, as shown in the right drawing of Fig. 1 .

사용자(11)는 펜(12)을 조작할 때, 통상적으로 손의 일부분을 펜(12)이 접촉되는 물체 위에 올려놓게 되는데, 이러한 사용자(11)의 행동에 의해 터치패널(10)은 도 1의 우측도면과 같이 펜(12)이 터치되는 부분(14) 뿐만 아니라 사용자(11)의 손의 일부분이 터치되는 부분(13)에서도 터치센싱신호를 발생시키게 된다. 이러한 경우, 터치인식장치는 터치된 두 부분(13, 14) 중 어떠한 터치가 사용자(11)가 의도한 터치인지 판단하기 어렵게 된다. 특히, 터치인식장치가 펜터치부분(13)이 아닌 손의 일부분이 터치된 부분(13)에 따라 제어를 수행하는 경우, 사용자(11)가 의도하지 않은 방향으로 제어되어 오동작을 일으킬 가능성이 커지게 된다.When the user 11 operates the pen 12, a part of the hand is usually placed on the object to which the pen 12 is to be contacted. By the action of the user 11, The touch sensing signal is generated not only in the portion 14 to which the pen 12 is touched but also in the portion 13 to which a part of the hand of the user 11 is touched. In this case, it is difficult for the touch recognition device to determine which one of the two touched portions 13, 14 is the intended touch of the user 11. [ Particularly, when the touch recognition device performs control according to the touched portion 13 of the hand rather than the pen touch portion 13, there is a possibility that the user 11 is controlled in an unintended direction to cause a malfunction .

이러한 배경에서, 본 발명의 목적은, 일 측면에서, 의도되지 않은 터치를 식별하는 기술을 제공하는 것이다.In this context, an object of the present invention is, in one aspect, to provide a technique for identifying an unintended touch.

다른 측면에서, 본 발명의 목적은, 의도된 터치를 식별하는 기술을 제공하는 것이다.In another aspect, an object of the present invention is to provide a technique for identifying an intended touch.

또 다른 측면에서, 본 발명의 목적은, 라지 오브젝트를 식별하는 기술을 제공하는 것이다.In another aspect, an object of the present invention is to provide a technique for identifying a large object.

전술한 목적을 달성하기 위하여, 일 측면에서, 본 발명은, 터치패널에 근접하거나 접촉하는 오브젝트들에 대한 센싱신호들로부터 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 이미지생성부, 상기 터치이미지로부터 적어도 하나의 패치를 식별하는 식별부 및 상기 터치이미지를 스캔하면서 각 패치별로 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하고 상기 제1변수가 제2기준값 이상인 패치를 라지 오브젝트로 결정하는 처리부를 포함하는 터치인식장치를 제공한다.In order to accomplish the above object, in one aspect, the present invention provides a method of generating a touch image comprising a plurality of row lines and a plurality of column lines from sensing signals for objects in proximity to or touching a touch panel An image generation unit, an identification unit for identifying at least one patch from the touch image, and a controller for counting the number of lines having the number of pixels of each patch greater than or equal to a first reference value as a first variable while scanning the touch image, And a processing unit for determining a patch having a reference value or more as a large object.

다른 측면에서, 본 발명은, 근접하거나 접촉하는 오브젝트들에 대한 터치패널의 센싱신호들을 수신하는 단계, 상기 센싱신호들을 처리하여 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 단계, 상기 터치이미지로부터 적어도 하나의 패치를 식별하는 단계, 상기 적어도 하나의 패치 중 제1패치에 대해 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하는 단계 및 상기 제1변수가 제2기준값 이상인 경우 상기 제1패치를 라지 오브젝트로 결정하는 단계를 포함하는 터치인식방법을 제공한다. In another aspect, the present invention provides a method for generating a touch image, the method comprising the steps of: receiving sensed signals of a touch panel for objects in proximity or contact; processing the sensed signals to generate a touch image comprising a plurality of row lines and a plurality of column lines Identifying at least one patch from the touch image, counting the number of lines for which the number of pixels is greater than or equal to a first reference value for a first patch of the at least one patch as a first variable, And determining the first patch to be a large object if the second reference value is equal to or greater than a second reference value.

이상에서 설명한 바와 같이 본 발명에 의하면, 의도되지 않은 터치를 식별하거나 의도된 터치를 식별할 수 있다. 또한, 본 발명에 의하면, 라지 오브젝트를 식별함으로써 라지 오브젝트와 연관된 터치를 식별할 수 있게 된다.As described above, according to the present invention, an unintended touch can be identified or an intended touch can be identified. Further, according to the present invention, identification of a large object makes it possible to identify a touch associated with the large object.

도 1은 펜을 이용한 터치의 일 상황에서 터치로 인식될 수 있는 부분을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 표시장치의 구성도이다.
도 3은 도 2의 터치인식장치의 내부 구성도이다.
도 4는 도 3의 이미지처리블록의 내부 구성도이다.
도 5는 각 센서의 신호값으로 생성된 터치이미지를 나타내는 도면이다.
도 6은 도 5의 터치이미지에서 복수의 패치를 식별한 것을 나타내는 도면이다.
도 7은 행방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.
도 8은 도 7의 예시에 따른 라지 오브젝트 결정 방법의 흐름도이다.
도 9는 열방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.
도 10은 터치이미지의 일부 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.
도 11은 라지 오브젝트를 이용하여 펜터치를 인식하는 예시를 설명하기 위한 도면이다.
1 is a diagram showing a portion that can be recognized by a touch in a situation of a touch using a pen.
2 is a configuration diagram of a display device according to an embodiment of the present invention.
3 is an internal configuration diagram of the touch recognition device of FIG.
4 is an internal configuration diagram of the image processing block of Fig.
5 is a view showing a touch image generated by signal values of the respective sensors.
Fig. 6 is a diagram showing a plurality of patches identified in the touch image of Fig. 5; Fig.
7 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the row direction.
8 is a flowchart of a method of determining a large object according to the example of FIG.
9 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the column direction.
10 is a diagram for explaining an example of determining a large object while scanning a partial area of a touch image.
11 is a diagram for explaining an example of recognizing a pen touch using a large object.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."

도 2는 본 발명의 일 실시예에 따른 표시장치의 구성도이다.2 is a configuration diagram of a display device according to an embodiment of the present invention.

도 2를 참조하면, 표시장치(100)는 표시패널(210) 및 터치패널(110)을 포함하고, 표시패널(210)을 구동하기 위한 드라이버장치(220) 및 터치패널(110)을 구동하고 센싱하기 위한 터치인식장치(120)을 포함할 수 있다. 또한, 표시장치(100)는 이러한 드라이버장치(220)와 터치인식장치(120)와 정보를 주고 받을 수 있는 호스트(230)를 포함할 수 있다.2, the display device 100 includes a display panel 210 and a touch panel 110, and drives the driver device 220 and the touch panel 110 for driving the display panel 210 And a touch recognition device 120 for sensing the touch. The display device 100 may include a host 230 that can exchange information with the driver device 220 and the touch recognition device 120.

도 2를 참조하여 설명하는 실시예에서는 표시패널(210)과 터치패널(220)이 구분되어 있는 것으로 설명하나 본 발명이 이러한 실시예로 제한되는 것은 아니며 표시패널(210)과 터치패널(220)은 일부 전극을 공유하는 일체형 패널의 형태를 가질 수도 있다. 예를 들어, 표시장치(100)는 인셀(In-cell)타입의 패널(미도시)을 포함할 수 있는데, 이러한 인셀타입의 패널(미도시)은 공통전극을 표시전극으로도 사용하고 또한 터치전극으로도 사용하는 일체형 패널의 형태를 가진다. 아래의 실시예에서는 설명의 편의를 위해 표시장치(100)가 표시패널(210)과 터치패널(220)을 각각 포함하고 있는 것으로 설명하나 본 발명은 이로 제한되지 않는다.2, the display panel 210 and the touch panel 220 are separated from each other. However, the present invention is not limited to this embodiment, May have the form of an integral panel sharing some electrodes. For example, the display device 100 may include an in-cell type panel (not shown), which uses a common electrode as a display electrode and a touch It has the form of an integrated panel which is also used as an electrode. In the following embodiments, the display device 100 is described as including the display panel 210 and the touch panel 220 for convenience of explanation, but the present invention is not limited thereto.

도 2를 참조하여 설명하는 실시예에서는 또한 드라이버장치(220) 및 터치인식장치(120)가 분리되어 있는 것으로 설명하나 본 발명이 이러한 실시예로 제한되는 것은 아니다. 드라이버장치(220) 및 터치인식장치(120)는 하나의 집적회로(Integrated Circuit)장치에 통합되어 있을 수 있다. 특히, 표시장치(100)가 일체형 패널을 포함하고 있는 경우 드라이버장치(220) 및 터치인식장치(120)가 통합되어 있는 형태가 장점을 발휘할 수 있는데, 예를 들어, 인셀타입의 패널(미도시)에서 공통전극을 표시전극으로도 사용하고 터치전극으로도 사용하게 되는데, 이때, 드라이버장치(220) 및 터치인식장치(120)가 통합되어 있는 경우, 하나의 구동회로를 이용하여 공통전극을 표시전극용으로도 구동할 수 있고 터치전극용으로도 구동할 수 있다. 아래의 실시예에서는 설명의 편의를 위해 표시장치(100)가 드라이버장치(220) 및 터치인식장치(120)를 각각 포함하고 있는 것으로 설명하나 전술한 바와 같이 본 발명은 이로 제한되지 않는다.2, the driver device 220 and the touch recognition device 120 are separated from each other. However, the present invention is not limited to these embodiments. The driver device 220 and the touch recognition device 120 may be integrated into one integrated circuit device. Particularly, when the display apparatus 100 includes an integrated panel, the driver apparatus 220 and the touch recognition apparatus 120 may be integrated. For example, an inser-type panel (not shown) When the driver device 220 and the touch recognition device 120 are integrated, a common electrode may be displayed using one driving circuit. In this case, the common electrode may be used as a display electrode and a touch electrode. It can be driven for an electrode or for a touch electrode. In the following embodiments, the display device 100 is described as including the driver device 220 and the touch recognition device 120 for convenience of explanation, but the present invention is not limited thereto as described above.

표시패널(210)은 액정표시소자(Liquid Crystal Display, LCD), 전계방출 표시소자(Field Emission Display : FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 유기발광 표시장치(Organic Light Emitting Display, OLED), 전기영동 표시소자(Electrophoresis, EPD) 등의 평판 표시소자 기반으로 구현될 수 있다.표시패널(210)이 액정표시소자로 되어 있는 실시예에서, 표시패널(210)은 두 장의 기판들 사이에 액정층이 형성될 수 있다. 이러한 실시예에서 표시패널(210)의 하부 기판에는 다수의 데이터라인들, 데이터라인들과 교차되는 다수의 게이트라인들, 데이터라인들과 게이트라인들의 교차부들에 형성되는 다수의 TFT들(Thin Film Transistor), 액정셀들에 데이터전압을 충전시키기 위한 다수의 표시전극, 표시전극에 접속되어 액정셀의 전압을 유지시키기 위한 스토리지 커패시터(Storage Capacitor) 등을 포함할 수 있다. 이러한 실시예에서 표시패널(210)의 상부 기판에는 블랙매트릭스, 컬러필터, 편광판 등을 포함할 수 있다.The display panel 210 may include a liquid crystal display (LCD), a field emission display (FED), a plasma display panel (PDP), an organic light emitting display OLED, and electrophoresis (EPD). In an embodiment in which the display panel 210 is a liquid crystal display device, the display panel 210 includes two substrates A liquid crystal layer can be formed. In this embodiment, the lower substrate of the display panel 210 includes a plurality of data lines, a plurality of gate lines crossing the data lines, a plurality of thin film transistors (TFTs) formed at intersections of the data lines and the gate lines, A plurality of display electrodes for charging the data voltage to the liquid crystal cells, and a storage capacitor connected to the display electrodes for maintaining the voltage of the liquid crystal cell. In this embodiment, the upper substrate of the display panel 210 may include a black matrix, a color filter, a polarizing plate, and the like.

드라이버장치(220)는 호스트(230) 혹은 타이밍콘트롤러(미도시)로부터 입력되는 디지털 비디오 데이터(RGB)를 아날로그 정극성/부극성 감마보상전압으로 변환하여 데이터전압(DATA)을 출력할 수 있다. 데이터전압은 데이터라인들에 공급될 수 있다. 드라이버장치(220)는 또한, 게이트펄스(SCAN)를 게이트라인들에 순차적으로 공급하여 데이터 전압(DATA)이 기입되는 표시패널(210)의 라인을 선택할 수 있다.The driver device 220 may convert the digital video data RGB input from the host 230 or a timing controller (not shown) into an analog positive / negative gamma compensation voltage to output the data voltage DATA. The data voltage may be supplied to the data lines. The driver device 220 may also supply a gate pulse SCAN to the gate lines sequentially to select a line of the display panel 210 to which the data voltage DATA is written.

이러한 표시패널(210) 및 드라이버장치(220)는 표시장치(100)에서 화면에 영상을 표시하는 것과 관련된 구성들이다. 계속해서 도 2를 참조하면서, 표시장치(100)에서 터치를 인식하는 것과 관련된 구성에 대해 살펴본다.The display panel 210 and the driver device 220 are components related to displaying an image on the screen in the display device 100. [ Next, a configuration related to recognizing touches on the display device 100 will be described with reference to Fig.

표시장치(100)는 사용자 조작으로서의 터치를 인식하기 위해 터치패널(110) 및 터치인식장치(120)를 포함할 수 있다.The display device 100 may include a touch panel 110 and a touch recognition device 120 for recognizing a touch as a user operation.

터치패널(110)은 표시패널(210)의 상부 편광판 상에 접합되거나, 상부 편광판과 상부 기판 사이에 형성될 수 있다. 또한, 터치패널(110)이 인셀타입으로 형성되는 경우, 표시패널(210) 내에서 픽셀 어레이와 함께 하부기판에 형성될 수도 있다. 센서센서터치패널(110)은 구동전극들, 수신전극들 및 센서들을 포함할 수 있다. 구동전극들 및 수신전극들은 일 예로서 서로 다른 층에 위치하면서 서로 교차할 수 있다-교차구조. 이러한 교차구조에서 센서들은 구동전극들과 수신전극들의 교차부에 형성되는 캐패시터들일 수 있다. 다른 예로서 구동전극들과 수신전극들은 서로 같은 층에 위치할 수 있다-1-layer(원레이어)구조. 이러한 원레이어구조에서 센서들은 구동전극들과 수신전극들 사이에 수평적으로 형성되는 캐패시터들일 수 있다. 또 다른 예로서 구동전극이 수신전극이 될 수 있다-셀프구조. 이러한 셀프구조에서 센서들은 수신전극과 주변 전극들 사이에 형성되는 캐패시터들일 수 있다. 터치패널(110)에서의 이러한 구동전극들 및 수신전극들의 위치 관계는 예시일 뿐이며 구동전극들 및 수신전극들은 이러한 예시들과는 다른 형태의 위치 관계를 형성할 수 있다. 수신전극들과 주변전극들 혹은 수신전극들 사이에서 센서로서 캐패시터가 형성되고 터치패널(110)에 접근 혹은 접촉하는 오브젝트에 의해 캐패시터의 캐패시턴스가 변하게 되는 구조의 예시들은 모두 본 발명의 실시예에 따른 터치패널(110)에 적용될 수 있다. The touch panel 110 may be bonded on the upper polarizer of the display panel 210, or may be formed between the upper polarizer and the upper substrate. In addition, when the touch panel 110 is formed as an in-cell type, the touch panel 110 may be formed on the lower substrate together with the pixel array in the display panel 210. The sensor sensor touch panel 110 may include driving electrodes, receiving electrodes, and sensors. The driving electrodes and the receiving electrodes may, for example, be located on different layers and intersect each other. In such a cross structure, the sensors may be capacitors formed at intersections of the driving electrodes and the receiving electrodes. As another example, the driving electrodes and the receiving electrodes may be located in the same layer with each other. In such a one-layer structure, the sensors may be capacitors formed horizontally between the driving electrodes and the receiving electrodes. As another example, the driving electrode can be a receiving electrode - a self-structure. In such a self-structure, the sensors may be capacitors formed between the receiving electrode and the peripheral electrodes. The positional relationship between the driving electrodes and the receiving electrodes in the touch panel 110 is merely an example, and the driving electrodes and the receiving electrodes may form a different type of positional relationship from these examples. Examples of structures in which a capacitor is formed as a sensor between receiving electrodes and peripheral electrodes or receiving electrodes and capacitance of a capacitor is changed by an object approaching or contacting the touch panel 110 are all examples according to the present invention Can be applied to the touch panel 110.

여기서, 센서들은 터치패널(110)로 근접하거나 접촉하는 오브젝트를 센싱한다는 측면에서 터치센서들로 호칭될 수 있으나 본 발명이 이러한 용어로 제한되는 것은 아니다. 아래에서 다른 수식이 추가되지 않는다면 센서는 터치센서와 같은 의미로 해석될 수 있다.Here, the sensors may be referred to as touch sensors in terms of sensing an object approaching or touching the touch panel 110, but the present invention is not limited thereto. If no other formulas are added below, the sensor can be interpreted in the same sense as the touch sensor.

터치인식장치(120)는 구동전극들에 구동신호(TX)를 공급하고 수신전극들을 통해 센서의 센싱신호(RX)를 센싱하여 터치좌표를 생성하고 이러한 터치좌표 데이터를 호스트(230)로 송신할 수 있다.The touch recognition device 120 supplies a driving signal TX to the driving electrodes, senses the sensing signal RX of the sensor through the reception electrodes, generates touch coordinates, and transmits the touch coordinate data to the host 230 .

도 3은 도 2의 터치인식장치의 내부 구성도이다.3 is an internal configuration diagram of the touch recognition device of FIG.

도 3을 참조하면, 터치인식장치(120)는 아날로그전단(310), 디지털신호처리블록(320), 메모리(330), 이미지처리블록(340) 및 신호입력단(350) 등을 포함할 수 있다.3, the touch recognition device 120 may include an analog front end 310, a digital signal processing block 320, a memory 330, an image processing block 340, and a signal input 350 .

아날로그전단(310)은 구동펄스를 생성하는 PWM(Pulse Width Modulation)생성회로, 터치패널(110)에 형성되어 있는 구동전극들로 구동신호(Tx)를 공급할 수 있는 구동회로, 수신전극들로부터 수신되는 센싱신호(Rx)를 처리할 수 있는 센싱회로 등을 포함할 수 있다.The analog front end 310 includes a PWM (Pulse Width Modulation) generating circuit for generating a driving pulse, a driving circuit capable of supplying a driving signal Tx to the driving electrodes formed on the touch panel 110, And a sensing circuit that can process the sensing signal Rx.

PWM생성회로에서는 주기적인 센싱을 위한 구동펄스가 생성되는데, 구동회로는 이러한 구동펄스에 동기된 구동신호(Tx)를 터치패널(110)로 공급한다. In the PWM generation circuit, a driving pulse for periodic sensing is generated. The driving circuit supplies the driving signal Tx synchronized with the driving pulse to the touch panel 110. [

센싱회로는 구동신호(Tx)에 의해 각 센서들에 형성된 전압 혹은 전압의 변화를 센싱한다. 정전용량방식 터치패널(110)에서 센서에는 캐패시턴스(정전용량)가 형성되는데, 터치에 의해 캐패시턴스의 변화가 발생한 경우 센서에는 이러한 캐패시턴스의 변화를 반영한 전압 혹은 전압의 변화가 발생하기 때문에 센싱회로는 이러한 센서의 전압 혹은 전압의 변화를 센싱하게 된다.The sensing circuit senses a change in voltage or voltage formed in each of the sensors by the drive signal Tx. In the capacitance type touch panel 110, a capacitance is formed in the sensor. When a change in capacitance occurs due to a touch, a change in voltage or voltage that reflects such a change in capacitance occurs in the sensor. Sensing the change in voltage or voltage of the sensor.

센싱회로는 주기적으로 인가되는 구동신호(Tx)에 대응한 센싱신호(Rx)를 차동 방식으로 센싱할 수 있다. 센싱회로는 센싱신호(Rx)를 차동 방식으로 센싱하기 위해 차동증폭회로를 더 포함할 수 있다. 센싱회로는 이러한 차동증폭회로를 이용하여 서로 인접한 두 개의 Rx 라인들의 센싱신호를 차동 증폭할 수 있다. 센싱회로가 차동 방식으로 센싱하는 경우, 공통 모드 노이즈(Common Mode Noise)가 저감되는 효과가 있다. The sensing circuit can sense the sensing signal Rx corresponding to the driving signal Tx applied periodically in a differential manner. The sensing circuit may further include a differential amplification circuit for sensing the sensing signal Rx in a differential manner. The sensing circuit can differentially amplify sensing signals of two adjacent Rx lines by using the differential amplification circuit. When the sensing circuit senses in a differential manner, common mode noise is reduced.

디지털신호처리블록(320)은 센싱회로에 의해 처리된 아날로그 센싱신호를 디지털 센싱데이터로 변환하여 메모리(330)에 저장할 수 있다. 이때, 메모리(330)에 저장되는 데이터를 로우 데이터(Raw Data)라고도 한다. 로우 데이터(Raw Data)는 정제되지 않은 원초적인 형태의 데이터를 부를 때 주로 사용되는 용어로서 디지털신호처리블록(320)에 의해 변환된 디지털 센싱데이터가 최종적으로 사용되는 데이터가 아닌 원초적인 형태의 데이터라는 것을 의미한다. 구체적으로 이러한 로우 데이터에는 도 1을 참조하여 설명한 의도되지 않은 터치에 대한 센싱데이터와 의도된 터치에 대한 센싱데이터가 혼재되어 있다.The digital signal processing block 320 may convert the analog sensing signal processed by the sensing circuit into digital sensing data and store the digital sensing data in the memory 330. At this time, data stored in the memory 330 may be referred to as raw data. Raw data is a term that is mainly used when original data of a non-refined original shape is referred to as a raw data, and the digital sensing data transformed by the digital signal processing block 320 is data of a primitive type it means. Specifically, the sensing data for the unintended touch and the sensing data for the intended touch, described with reference to FIG. 1, are mixed in the raw data.

이미지터리블록(340)은 로우 데이터를 정제하여 의도되지 않은 터치를 식별해 내거나 이러한 의도되지 않은 터치를 제거하는 처리를 수행할 수 있다. The image gallery block 340 may refine the raw data to identify unintended taps or perform processing to remove such unintended taps.

이미지처리블록(340)은 메모리(330)에 저장되어 있는 디지털 센싱데이터를 처리하여 터치정보를 생성한 후, 신호입력단(350)을 통해 호스트(230)로 전달한다.The image processing block 340 processes the digital sensing data stored in the memory 330 to generate touch information and transmits the touch information to the host 230 through the signal input terminal 350.

도 4는 도 3의 이미지처리블록의 내부 구성도이다.4 is an internal configuration diagram of the image processing block of Fig.

도 4를 참조하면, 이미지처리블록(340)은 이미지생성부(410), 식별부(420), 처리부(430) 및 좌표생성부(440) 등을 포함할 수 있다.4, the image processing block 340 may include an image generating unit 410, an identifying unit 420, a processing unit 430, a coordinate generating unit 440, and the like.

이미지생성부(410)는 터치패널(110)에 근접하거나 접촉하는 오브젝트들에 대한 센싱신호들로부터 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성할 수 있다.The image generating unit 410 may generate a touch image composed of a plurality of row lines and a plurality of column lines from sensing signals for objects in proximity to or in contact with the touch panel 110. [

터치패널(110)에는 다수의 센서들이 있고 각각의 센서들의 위치별에 대응되는 화소들로 센싱데이터들이 저장되기 때문에 이미지생성부(410)는 이러한 화소들을 이용하여 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성할 수 있다.Since the touch panel 110 has a plurality of sensors and the sensing data is stored in the pixels corresponding to the positions of the respective sensors, the image generating unit 410 generates a plurality of row lines and a plurality of rows It is possible to generate a touch image composed of lines.

이때, 아날로그전단(310)이 차동방식으로 센싱신호를 처리하는 경우 화소들에는 두 센서 사이의 차이값에 해당되는 차동 센싱데이터가 저장될 수 있는데, 이미지생성부(410)는 이러한 두 센서 사이의 차이값 형태로 터치이미지를 생성할 수도 있고, 다른 예로서, 이미지생성부(410)는 차동 센싱데이터를 누적시켜 각 센서의 신호값 형태로 터치이미지를 생성할 수도 있다.In this case, when the analog front end 310 processes the sensing signal in a differential manner, the differential sensing data corresponding to the difference value between the two sensors may be stored in the pixels. Alternatively, the image generator 410 may accumulate the differential sensing data to generate a touch image in the form of a signal value of each sensor.

아날로그전단(310)에서 차동방식으로 센싱신호를 처리할 때, 라인별로 인접한 센서 사이에서 차이값을 생성하게 되는데, 이렇게 생성된 차동 센싱데이터는 라인별로 순차적으로 적산함으로써 각 센서의 신호값 형태로 복원시킬 수 있다. 이러한 원리에서 이미지생성부(410)는 두 센서들 혹은 두 센싱신호들의 차이값으로 생성되는 로우 데이터를 라인별로 적산하여 터치이미지를 생성할 수 있게 된다.When processing a sensing signal in a differential manner in the analog front end 310, difference values are generated between adjacent sensors on a line-by-line basis. The differential sensing data thus generated is sequentially integrated on a line-by-line basis, . In this principle, the image generating unit 410 can generate the touch image by integrating row data generated by the difference between two sensors or two sensing signals on a line-by-line basis.

도 5는 각 센서의 신호값으로 생성된 터치이미지를 나타내는 도면이다.5 is a view showing a touch image generated by signal values of the respective sensors.

도 5를 참조하면, 12개의 행과 16개의 열로 이루어진 매트릭스에 각 센서의 신호값이 저장된 터치이미지의 예시가 표시되고 있다.Referring to FIG. 5, an example of a touch image in which signal values of respective sensors are stored in a matrix of 12 rows and 16 columns is displayed.

도 5에서 각 화소에 표시된 값은 터치패널(110)의 각 센서들에서의 캐패시턴스 혹은 캐패시턴스의 변화를 대표하는 값들일 수 있다. 예를 들어, 터치패널(110)에 오브젝트가 근접하거나 접촉하게 되면 오브젝트의 근접 위치 혹은 접촉 위치 센서들의 캐패시턴스가 증가할 수 있는데-캐패시턴스가 감소하는 구조의 터치패널도 있음-, 도 5의 터치이미지에 표시된 값들은 이러한 캐패시턴스의 변화에 비례하는 값일 수 있다.In FIG. 5, the values displayed on the respective pixels may be values representative of a change in capacitance or capacitance in each of the sensors of the touch panel 110. For example, when an object comes close to or comes into contact with the touch panel 110, the proximity position of the object or the capacitance of the contact position sensors may increase - some touch panels have a structure in which the capacitance is reduced. Lt; / RTI > may be a value proportional to the change in capacitance.

이러한 실시예에 따를 때, 도 5의 터치이미지에서 숫자가 큰 부분은 오브젝트가 근접하거나 접촉한 위치일 수 있다. 각 센서들 중 터치가 이루어진 부분을 터치노드라고 할 때, 식별부(420)는 전술한 방식에 따라 신호값이 특정값보다 높은 위치를 터치노드로 인식할 수 있다. 예를 들어, 도 5의 실시예에서 식별부(420)는 신호값이 10이상인 위치를 터치노드로 인식할 수 있다.According to this embodiment, in the touch image of Fig. 5, the large number portion may be the position in which the object comes close or touches. When the touching portion of each sensor is referred to as a touch node, the identifying unit 420 can recognize a position where the signal value is higher than a specific value as a touch node according to the above-described method. For example, in the embodiment of FIG. 5, the identification unit 420 may recognize a position where the signal value is 10 or more as a touch node.

터치노드에 대응되는 화소를 터치화소라 할 때, 터치화소들이 연속하여 연결되어 있는 것을 패치라고 할 수 있다. 터치이미지에는 복수의 패치가 나타날 수 있는데, 식별부(420)는 이러한 복수의 패치를 각각 식별할 수 있다.When a pixel corresponding to the touch node is referred to as a touch screen, it can be said that the touch pixels are continuously connected to each other. A plurality of patches may appear in the touch image, and the identification unit 420 may identify each of the plurality of patches.

도 6은 도 5의 터치이미지에서 복수의 패치를 식별한 것을 나타내는 도면이다.Fig. 6 is a diagram showing a plurality of patches identified in the touch image of Fig. 5; Fig.

식별부(420)는 터치이미지의 각 화소의 신호값들을 특정값(예를 들어, 10)과 비교하여 터치노드들을 인식하고 인접한 터치화소들을 그룹핑하여 복수의 패치(610, 620)를 식별할 수 있다. 이때, 제1패치(610)와 같이 각 패치들은 복수의 터치화소들로 구성될 수 있고, 제2패치(620)와 같이 단일 터치화소로 구성될 수 있다.The identifying unit 420 recognizes the touch nodes by comparing the signal values of the respective pixels of the touch image with a specific value (for example, 10), and groups adjacent touch pixels to identify the plurality of patches 610 and 620 have. In this case, like the first patch 610, each of the patches may be composed of a plurality of touch pixels, and the second patch 620 may be composed of a single touch pixel.

복수의 패치(610, 620)가 식별되면, 식별부(420) 각 패치들에 라벨들을 부여할 수 있다. 예를 들어, 식별부(420)는 제1패치(610)에 "L1"라벨을 부여할 수 있고, 제2패치(620)에 "L2"라벨을 부여할 수 있다.When a plurality of patches 610 and 620 are identified, labels may be assigned to each patch of the identification unit 420. [ For example, the identification unit 420 may label the first patch 610 with "L1" and label the second patch 620 with "L2".

식별부(420)는 각 패치들에 부여된 라벨을 각 패치들에 소속된 터치화소에 태그시킬 수 있다. 터치이미지는 메모리 상에 배열로서 저장되어 있을 수 있는데, 이때, 배열의 원소들에는 센서의 신호값과 라벨이 저장될 수 있는 데이터 구조가 형성되어 있을 수 있다. 식별부(420)는 각 화소의 데이터 구조에 라벨값을 저장하는 형태로 각 터치화소에 라벨을 태그할 수 있다.The identification unit 420 can tag the label assigned to each patch to the touch pixel belonging to each patch. The touch image may be stored as an array on the memory. At this time, the array elements may have a data structure in which signal values of the sensors and labels can be stored. The identification unit 420 may label the touch pixel with a label in which the label value is stored in the data structure of each pixel.

처리부(430)는 복수의 패치 중에서 의도되지 않은 터치에 의한 패치를 식별할 수 있다. 의도되지 않은 터치로는 노이즈에 의한 터치, 손떨림에 의한 터치, 물과 같은 이물질에 의한 터치, 손바닥과 같은 라지 오브젝트에 의한 터치 등이 있을 수 있다. 아래에서는 처리부(430)가 이러한 의도되지 않은 터치들 중 라지 오브젝트에 의한 터치를 식별하는 것과 관련된 실시예들을 설명한다.The processing unit 430 can identify a patch due to an unintended touch among a plurality of patches. Examples of the unintended touch include touch by noise, touch by hand, touch by foreign matter such as water, touch by a large object such as a palm, and the like. The following describes embodiments in which the processing unit 430 identifies a touch by a large one of these unintended touches.

처리부(430)는 화소수가 제1기준값 이상인 라인의 개수가 제2기준값 이상인 패치들을 라지 오브젝트로 결정할 수 있다. 다시 말해, 처리부(430)는 패치들에 대해 일정 폭(제1기준값) 이상을 가지는 라인수가 일정값(제2기준값) 이상이면 해당 패치를 라지 오브젝트로 결정한다.The processing unit 430 may determine patches having a number of pixels whose number of pixels is equal to or greater than the first reference value as a large object. In other words, the processing unit 430 determines the patch as a large object if the number of lines having a predetermined width (first reference value) or more is greater than or equal to a predetermined value (second reference value).

이러한 방식에 의하면 처리부(430)는 일정 폭 이상을 가지면서 일정 높이(제2기준값) 이상을 가지는 패치를 손쉽게 식별해 낼 수 있게 된다. 라지 오브젝트는 일정한 넓이를 가지고 있다는 측면에서 일정 폭과 일정 높이를 고려하는 이러한 방식은 정확도가 높은 방식이다. 또한 처리부(430)는 일정폭 이상의 라인들을 단순 카운트함으로써 라지 오브젝트 여부를 판단할 수 있는데, 이러한 측면에서 이러한 방식은 메모리와 프로세서를 효율적으로 사용하는 방식이다.According to this method, the processing unit 430 can easily identify a patch having a predetermined height or more (second reference value) or more. This method, which considers a fixed width and a constant height in terms of having a certain width, is a highly accurate method. In addition, the processing unit 430 may determine whether the object is a large object by simply counting a line having a predetermined width or more. In this respect, this method effectively uses the memory and the processor.

구체적인 방법에 있어서, 처리부(430)는 라지 오브젝트를 결정하기 위해 전체 터치이미지를 스캔할 수도 있고 터치이미지의 일부 영역만 스캔할 수도 있다.In a specific method, the processing unit 430 may scan an entire touch image to determine a large object or only a part of the touch image.

먼저, 처리부(430)가 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트에 해당되는 패치들을 식별하는 실시예에 대해 설명한다.First, an embodiment in which the processing unit 430 scans the entire area of the touch image and identifies patches corresponding to the large object will be described.

도 7은 행방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.7 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the row direction.

도 7을 참조하면, 처리부(430)는 터치이미지의 전체 영역을 래스터 주사(raster scan)하듯이 첫번째 행(Y1)부터 마지막 행(Y12)까지 행방향으로 순차적으로 스캔(H-SCAN)하면서 복수의 패치 중 라지 오브젝트에 해당되는 패치를 식별할 수 있다.Referring to FIG. 7, the processing unit 430 sequentially scans (H-SCAN) in the row direction from the first row Y1 to the last row Y12 as a raster scan of the entire area of the touch image, The patch corresponding to the large object can be identified.

도 7을 참조하면, 처리부(430)는 제1기준값으로 3을 가지고 있으면서 3 이상의 화소를 가지고 있는 Y5, Y6, Y7, Y8, Y9, Y10 행을 스캔하면서 제1패치(620)에 대한 라인수를 증가시키게 된다.7, the processing unit 430 scans the Y5, Y6, Y7, Y8, Y9, and Y10 rows having three or more pixels as the first reference value, and determines the number of lines for the first patch 620 .

처리부(430)는 터치이미지의 전체 영역에 대한 스캔이 완료된 후 제1패치(620)에 대해 카운트된 라인수(도 7의 예시에서는 6)가 제2기준값(예를 들어, 5)보다 크면 제1패치(620)를 라지 오브젝트로 결정할 수 있다.If the number of lines counted for the first patch 620 (6 in the example in FIG. 7) is greater than the second reference value (for example, 5) after the scan for the entire area of the touch image is completed, 1 patch 620 can be determined as a large object.

반면에, 제2패치(610)는 스캔 과정에서 제1기준값 이상인 라인이 없기 때문에 처리부(430)는 제2패치(610)를 라지 오브젝트로 결정하지 않는다. 라지 오브젝트가 아니라는 측면에서 처리부(430)는 제2패치(610)를 스몰 오브젝트로 결정할 수도 있다.On the other hand, the second patch 610 does not determine that the second patch 610 is a large object because there is no line above the first reference value in the scanning process. In terms of not being a large object, the processing unit 430 may determine the second patch 610 as a small object.

도 7의 실시예에 대해 흐름도를 참조하여 좀더 설명한다.The embodiment of FIG. 7 will be further described with reference to the flowchart.

도 8은 도 7의 예시에 따른 라지 오브젝트 결정 방법의 흐름도이다.8 is a flowchart of a method of determining a large object according to the example of FIG.

처리부(430)는 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트할 수 있다.The processing unit 430 may count the number of lines whose number of pixels is equal to or greater than the first reference value as the first variable.

이때, 처리부(430)는 필요한 패치들의 수만큼 제1변수를 설정할 수 있다. 예를 들어, 도 7의 예시에서 두 개의 패치들에 대해 제1변수를 각각 할당할 수 있다. 또는, 처리부(430)는 도 7의 예시에서 제1패치(610)에 대해서만 제1변수를 할당할 수 있다.At this time, the processing unit 430 may set the first variable by the number of required patches. For example, in the example of FIG. 7, a first variable may be assigned to each of the two patches. Alternatively, the processing unit 430 may assign the first variable only to the first patch 610 in the example of FIG.

도 8을 참조하여 설명하는 실시예에서는 처리부(430)가 각각의 패치들에 대해 모두 제1변수를 할당하는 방법에 대해 설명한다.In the embodiment described with reference to FIG. 8, a method in which the processing unit 430 allocates the first variable to each of the patches will be described.

처리부(430)는 각 라인별 화소수를 카운트하기 위해 제2변수를 할당할 수 있다.The processing unit 430 may assign a second variable to count the number of pixels for each line.

이때, 처리부(430)는 필요한 패치들의 수만큼 제2변수를 설정할 수도 있고, 제2변수를 하나만 설정할 수도 있다. At this time, the processing unit 430 may set a second variable by the number of required patches, or may set only one second variable.

도 8을 참조하여 설명하는 실시예에서는 처리부(430)가 각각의 패치들에 대해 모두 제2변수를 할당하는 방법에 대해 설명한다.In the embodiment described with reference to FIG. 8, a method in which the processing unit 430 allocates the second variable to each of the patches will be described.

도 8을 참조하면, 처리부(430)는 제1변수를 초기화(리셋)하고 스캔하는 행을 결정하기 위한 변수 N을 0으로 설정할 수 있다(S802).Referring to FIG. 8, the processing unit 430 may initialize (reset) the first variable and set a variable N for determining a row to be scanned to 0 (S802).

처리부(430)는 이러한 변수 N의 크기가 전체 행수(도 7의 예에서 12)보다 커지는지 판단하여 전체 행수보다 작거나 같은 경우(S804에서 N), 각 행별로 각 패치들의 화소수를 카운트할 수 있다.The processing unit 430 determines whether the size of the variable N is larger than the total number of lines (12 in the example of FIG. 7), and if it is smaller than or equal to the total number of lines (N in S804), the processing unit 430 counts the number of pixels of each patch .

처리부(430)는 변수 N이 전체 행수보다 작거나 같은 경우(S804에서 N), 변수 N의 크기를 증가시키고, 스캔하는 열을 결정하기 위한 변수 M을 0으로 설정하며, 제2변수를 초기화시킨다(S806).If the variable N is smaller than or equal to the total number of rows (N in S804), the processing unit 430 increases the size of the variable N, sets the variable M for determining the column to be scanned to 0, and initializes the second variable (S806).

처리부(430)는 이러한 변수 M의 크기가 전체 열수(도 7의 예에서 16)보다 커지는지 판단하여 전체 열수보다 작거나 같은 경우(S808에서 N), 변수 M의 크기를 증가시킨다(S810).The processing unit 430 determines whether the magnitude of the variable M is larger than the total number of columns (16 in the example of FIG. 7) and increases the size of the variable M (S810).

변수 N과 M을 통해 스캔하는 행과 열이 결정되면, 처리부(430)는 해당 화소에 태그된 라벨과 이전 화소에 태그된 라벨이 일치하는지 확인한다(S812). 여기서 이전 화소는 같은 라인에 인접한 화소를 의미한다.When a row and a column to be scanned through the variables N and M are determined, the processing unit 430 checks whether the label tagged to the pixel matches the label tagged to the previous pixel (S812). Here, the previous pixel means a pixel adjacent to the same line.

처리부(430)는 해당 화소와 이전 화소의 라벨이 일치하는 경우(S812에서 Y), 제2변수를 증가시키고(S814), 라벨이 일치하지 않는 경우(S812에서 N), 제2변수를 초기화한다(S816).If the label of the pixel matches the label of the previous pixel (Y in S812), the processing unit 430 increments the second variable (S814). If the label does not match (N in S812), the processing unit 430 initializes the second variable (S816).

S812 단계에서 해당 화소에 라벨이 없는 경우에도, 처리부(430)는 제2변수를 초기화할 수 있다(S816).In step S812, the processing unit 430 may initialize the second variable even if there is no label in the pixel.

처리부(430)는 제2변수를 초기화할 때, 제2변수 최대값을 별도로 저장할 수 있다(S816).When initializing the second variable, the processing unit 430 may separately store the second variable maximum value (S816).

S814 단계 혹은 S816 단계가 수행된 후에는 다시 S808 단계가 수행되는데, 이러한 순환 과정을 거쳐 전체 열에 대해 스캔이 종료되면 M의 크기가 전체 열수보다 커지게 된다. 이때, 처리부(430)는 S808 단계에서 M의 크기가 전체 열수보다 큰 것을 확인하고(S808에서 Y), S818 단계를 수행한다.After step S814 or step S816, step S808 is performed again. If the scan is completed for all the columns through the circulation process, the size of M becomes larger than the total number of columns. At this time, the processing unit 430 confirms that the magnitude of M is larger than the total number of columns in step S808 (Y in step S808), and performs step S818.

처리부(430)는 제2변수 혹은 제2변수의 최대값이 제1기준값 이상인 경우(S818에서 Y), 해당 패치의 제1변수를 증가시킨다(S820).If the maximum value of the second variable or the second variable is equal to or greater than the first reference value (Y in S818), the processing unit 430 increases the first variable of the patch (S820).

S818 단계에서 N일 경우, 혹은 S820 단계가 수행된 후에 처리부(430)는 다시 S804 단계를 수행하여 전체 행에 대한 스캔을 수행한다.If N in step S818 or step S820 is performed, the processing unit 430 performs step S804 again to scan the entire row.

전체 행에 대한 스캔을 수행하면 N의 크기가 전체 행수보다 커지게 된다. 이때, 처리부(430)는 S804 단계에서 N의 크기가 전체 행수보다 큰 것을 확인하고(S804에서 Y), S822 단계를 수행한다.If the scan is performed for the entire row, the size of N becomes larger than the total number of rows. At this time, the processing unit 430 confirms that the size of N is larger than the total number of lines in step S804 (Y in step S804), and performs step S822.

이때, 처리부(430)는 각 패치에 할당된 제1변수가 제2기준값 이상인 경우(S822에서 Y), 해당 패치를 라지 오브젝트로 결정하고 그렇지 않은 경우, 프로세스를 종료한다.At this time, if the first variable allocated to each patch is equal to or larger than the second reference value (Y in S822), the processing unit 430 determines the patch as a large object, and if not, ends the process.

도 8의 흐름도에서 S812 단계에서 처리부(430)는 스캔하고 있는 화소의 라벨과 이전 화소의 라벨이 일치하는지 확인하고 일치하는 경우에만 제2변수를 증가시키게 되는데, 이렇게 할 경우 처리부(430)는 각 패치별로 연속된 화소수의 최대값이 제1기준값 이상인 라인의 개수를 제1변수로 카운트하게 된다. 예를 들어, 한 라인에 대해 총 4개의 화소들이 있고, 이러한 화소들이 두 개씩만 연속이라면 도 8의 흐름도에 따른 실시예에서는 해당 라인의 스캔과정에서 제1변수가 증가되지 않는다.8, the processing unit 430 determines whether the label of the pixel being scanned matches the label of the previous pixel, and increases the second variable only if the label matches the label of the previous pixel. In this case, The number of lines whose maximum value of the number of consecutive pixels per patch is equal to or greater than the first reference value is counted as the first variable. For example, if there are a total of four pixels for one line, and only two such pixels are continuous, the first variable is not increased in the scanning process of the corresponding line in the embodiment according to the flowchart of FIG.

연속된 화소수가 아닌 각 라인의 패치별 전체 화소수를 기준으로 제1기준값과 비교하고자 한다면, 도 8의 흐름도에서 처리부(430)는 S812 단계에서 라벨의 일치 여부를 판단하지 않고 각 화소에 태그된 라벨을 검사하고 해당 라벨에 대응되는 패치의 제2변수를 증가시키는 방법을 적용시킬 수 있다. 이 경우, 제2변수를 리셋시키는 단계(S816)는 제거될 수 있다.In order to compare the total number of pixels of each line of each line with the first reference value, the processing unit 430 in step S812 of FIG. 8 does not determine whether or not the labels are matched, A method of inspecting the label and increasing the second parameter of the patch corresponding to the label may be applied. In this case, step S816 of resetting the second variable may be eliminated.

한편, 처리부(430)는 열방향으로 터치이미지를 스캔할 수도 있다.Meanwhile, the processing unit 430 may scan the touch image in the column direction.

도 9는 열방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.9 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the column direction.

도 9를 참조하면, 처리부(430)는 터치이미지의 전체 영역을 래스터 주사(raster scan)하듯이 첫번째 열(X1)부터 마지막 열(X16)까지 열방향으로 순차적으로 스캔(V-SCAN)하면서 복수의 패치 중 라지 오브젝트에 해당되는 패치를 식별할 수 있다.Referring to FIG. 9, the processing unit 430 sequentially scans (V-SCAN) from the first column X1 to the last column X16 in the column direction as if the entire area of the touch image is raster scanned, The patch corresponding to the large object can be identified.

도 9를 참조하면, 처리부(430)는 제1기준값으로 3을 가지고 있으면서 3 이상의 화소를 가지고 있는 X10, X11, X12, X13 열을 스캔하면서 제1패치(620)에 대한 라인수를 증가시키게 된다.Referring to FIG. 9, the processing unit 430 increases the number of lines for the first patch 620 while scanning X10, X11, X12, and X13 columns having three or more pixels while having a first reference value of 3 .

처리부(430)는 터치이미지의 전체 영역에 대한 스캔이 완료된 후 제1패치(620)에 대해 카운트된 라인수(도 9의 예시에서는 4)가 제2기준값(예를 들어, 5)보다 크면 제1패치(620)를 라지 오브젝트로 결정할 수 있고, 작으면 라지 오브젝트로 결정하지 않을 수 있다.If the number of lines counted for the first patch 620 (4 in the example in FIG. 9) is greater than the second reference value (for example, 5) after the scan for the entire area of the touch image is completed, 1 patch 620 may be determined as a large object, and if it is small, it may not be determined as a large object.

한편, 도 7과 도 9의 실시예들에 따른 제1패치(610)의 라인수를 비교해 보면, 도 7의 실시예에서 제1패치(610)의 제1기준값 이상인 라인수는 6인데 반해, 도 9의 실시예에서 제2패치(610)의 제1기준값 이상인 라인수는 4이다. 이에 따라, 제2기준값이 5인 경우, 도 7의 실시예에서는 제1패치(610)가 라지 오브젝트로 결정될 수 있고, 도 9의 실시예에서는 제1패치(610)가 라지 오브젝트로 결정되지 않을 수 있다.7 and FIG. 9, the number of lines of the first patch 610 in the embodiment of FIG. 7 is greater than the first reference value of the first patch 610, In the embodiment of FIG. 9, the number of lines that is equal to or larger than the first reference value of the second patch 610 is four. Accordingly, when the second reference value is 5, the first patch 610 may be determined as a large object in the embodiment of FIG. 7, and in the embodiment of FIG. 9, the first patch 610 may not be determined as a large object .

처리부(430)는 라지 오브젝트 판단의 정확도를 높이기 위해 행방향 및 열방향 각각에 대해 각 패치들의 라지 오브젝트 여부를 결정할 수 있다. 이 경우, 어느 한 방향에서 라지 오브젝트로 결정된 패치는 최종적으로 라지 오브젝트로 결정될 수 있다.The processing unit 430 may determine whether each patch is a large object for each of the row direction and the column direction in order to increase the accuracy of the large object determination. In this case, a patch determined as a large object in any one direction can finally be determined as a large object.

다른 한편으로 처리부(430)는 행방향 및 열방향 각각에 대해 각 패치들의 제1기준값 이상인 라인수를 카운트하고 각각의 결과를 평균된 값으로 라지 오브젝트 여부를 결정할 수도 있다. 예를 들어, 도 7 및 도 9의 실시예에서 제1패치(610)의 제1기준값 이상인 라인수의 평균값은 5가 되는데, 이러한 평균값을 제2기준값과 비교하여 라지 오브젝트 여부를 결정할 수도 있다.On the other hand, the processing unit 430 may count the number of lines that are equal to or greater than the first reference value of each patch in the row direction and the column direction, and determine whether each result is a large object with the averaged value. For example, in the embodiments of FIGS. 7 and 9, the average value of the number of lines that is equal to or larger than the first reference value of the first patch 610 is 5. The average value may be compared with the second reference value to determine whether or not it is a large object.

도 7 내지 도 9를 참조하여, 처리부(430)가 터치이미지의 전체 영역을 스캔하면서 각 패치들에 대해 라지 오브젝트 여부를 결정하는 실시예에 대해 설명하였는데, 처리부(430)는 터치이미지의 일부 영역만을 스캔하여 특정 패치의 라지 오브젝트 여부를 결정할 수 있다. 처리부(430)가 터치이미지의 일부 영역만을 스캔하여 특정 패치의 라지 오브젝트 여부를 결정하는 실시예를 도 10을 참조하여 설명한다.7 to 9, the description has been given of the embodiment in which the processing unit 430 scans the entire area of the touch image and determines whether or not it is a large object for each of the patches. It is possible to determine whether a specific patch is a large object. An embodiment in which the processing unit 430 scans only a part of the touch image to determine whether a specific patch is a large object will be described with reference to FIG.

도 10은 터치이미지의 일부 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.10 is a diagram for explaining an example of determining a large object while scanning a partial area of a touch image.

도 10을 참조하면, 제1패치(610)의 최외곽 라인은 X7, X13, Y4 및 Y11 이다. 그리고, 제2패치(620)의 최외곽 라인은 X3 및 Y3 이다.Referring to FIG. 10, the outermost lines of the first patch 610 are X7, X13, Y4, and Y11. The outermost lines of the second patch 620 are X3 and Y3.

터치인식장치(120)가 각 패치의 최외곽 라인들을 파악하게 되면, 터치인식장치(120)는 해당 패치의 최외곽 라인들의 내부영역만 스캔함으로써 해당 패치의 라지 오브젝트 여부를 결정할 수 있다.When the touch recognition device 120 recognizes the outermost lines of each patch, the touch recognition device 120 can determine whether the patch is a large object by scanning only the inner area of the outermost lines of the patch.

예를 들어, 터치인식장치(120)는 제1패치(610)에 대하여 최외곽 라인들을 X7, X13, Y4 및 Y11로 파악하고 이러한 최외곽 라인들로 구성되는 제1내부영역(1010)만 스캔하면서 제1패치(610)의 라지 오브젝트 여부를 결정할 수 있다. 이러한 예시에서 하나의 패치에 대해서만 라지 오브젝트 여부를 결정함으로 제1변수 및 제2변수를 각각 하나만 사용해도 된다. 이러한 실시예에 따르면 제1변수 및 제2변수를 하나만 사용함으로써 메모리를 효율적으로 사용할 수 있게 되는 장점이 있다.For example, the touch recognition apparatus 120 recognizes the outermost lines as X7, X13, Y4, and Y11 with respect to the first patch 610, and only the first inner area 1010 composed of these outermost lines is scanned It is possible to determine whether or not the first patch 610 is a large object. In this example, only one of the first variable and the second variable may be used for determining whether the object is a large object only for one patch. According to this embodiment, there is an advantage that the memory can be efficiently used by using only the first variable and the second variable.

한편, 터치인식장치(120)는 각 패치의 최외곽 라인들을 파악하여 해당 패치의 최외곽 라인들의 내부영역 크기를 확인할 수 있다. 예를 들어, 도 10의 예시에서 제1패치(610)에 대하여 최외곽 라인들의 내부영역 크기는 넓이 기준으로 56이 되고, 제2패치(620)에 대하여 최외곽 라인들의 내부영역 크기는 넓이 기준으로 1이 된다. 내부영역 크기는 넓이 기준으로 확인할 수도 있고 폭 기준으로 확인할 수도 있는데, 예를 들어, 도 10의 예시에서 행방향 기준으로 제1패치(610)는 X7부터 X13에 이르는 수평폭이 7이 되고, 제2패치(620)는 X3 하나만 있음으로 수평폭이 1이 된다.On the other hand, the touch recognition apparatus 120 can identify the outline lines of each patch and check the inner area size of the outermost lines of the patch. For example, in the example of FIG. 10, the size of the inner area of the outermost lines with respect to the first patch 610 is 56 on the basis of the width, and the size of the inner area of the outermost lines with respect to the second patch 620 is the width . For example, in the example of FIG. 10, the horizontal width from X7 to X13 is 7 in the first patch 610 in the row direction reference, 2 patch 620 has a horizontal width of 1 because there is only one X3.

터치인식장치(120)는 각 패치들에 대하여 최외곽 라인들의 내부영역 크기를 확인하고 이러한 각 패치들의 내부영역 크기가 일정값 이상인 패치들에 대해서만 라지 오브젝트 여부를 결정할 수 있다. 예를 들어, 넓이 기준으로 내부영역 크기가 10 이상인 패치들만 스캔한다고 하면, 도 10의 예시에서 터치인식장치(120)는 제1패치(610)만 스캔할 수 있다. 다른 예로서, 수평폭 기준으로 내부영역 크기가 3이상인 패치들만 스캔한다고 하면, 도 10의 예시에서 터치인식장치(120)는 제1패치(610)만 스캔할 수 있다. 터치인식장치(120)가 실질적으로 행방향으로 화소수가 제1기준값 이상인 라인들만 카운트한다고 할 때, 내부영역의 수평폭이 제1기준값보다 작은 패치들은 화소수가 제1기준값 이상인 라인들이 없기 때문에 스캔을 하지 않을 수 있다.The touch recognition apparatus 120 can determine the size of the inner area of the outermost lines for each patch and determine whether the patch is a large object only for patches having an inner area size of each of the patches equal to or greater than a predetermined value. For example, if only patches having an inner area size of 10 or more are scanned based on the area, the touch recognition device 120 can scan only the first patch 610 in the example of FIG. As another example, if only the patches having the inner area size of 3 or more are scanned based on the horizontal width, the touch recognition device 120 can scan only the first patch 610 in the example of FIG. When the touch recognition device 120 counts only the lines whose number of pixels is substantially equal to or greater than the first reference value in the row direction, the patches whose horizontal width of the inner area is smaller than the first reference value, I can not.

라지 오브젝트로 결정된 패치들은 여러 가지 용도로 활용될 수 있다.Patches determined as large objects can be used for various purposes.

펜을 사용하여 사용자 조작을 입력하는 경우 통상적으로 라지 오브젝트는 의도되지 않은 터치일 가능성이 높다. 이에 따라, 좌표생성부(440)는 라지 오브젝트를 제거하고 나머지 터치들에 대해서만 좌표를 생성하여 호스트(230)로 전송할 수 있다.When a pen is used to input a user operation, a large object is likely to be an unintended touch. Accordingly, the coordinate generator 440 removes the large object, generates coordinates only for the remaining touches, and transmits the coordinate to the host 230. FIG.

반면에, 손바닥을 이용한 호버링(hovering) 터치를 인식하는 경우, 라지 오브젝트가 의도된 터치일 가능성이 높다. 이에 따라, 좌표생성부(440)는 라지 오브젝트에 대해 좌표를 생성하여 호스트(230)로 전송할 수 있다.On the other hand, in the case of recognizing the hovering touch using the palm, it is highly likely that the large object is the intended touch. Accordingly, the coordinate generator 440 can generate coordinates for the large object and transmit it to the host 230.

한편, 라지 오브젝트는 펜터치의 위치를 결정하는 용도로 활용될 수 있다.On the other hand, the large object can be utilized for determining the position of the pen touch.

도 11은 라지 오브젝트를 이용하여 펜터치를 인식하는 예시를 설명하기 위한 도면이다.11 is a diagram for explaining an example of recognizing a pen touch using a large object.

도 11을 참조하면, 처리부(430)에 의해 제1패치(610)는 라지 오브젝트로 결정되고 제2패치(620) 및 제3패치(1130)는 라지 오브젝트로 결정되지 않거나 스몰 오브젝트로 결정될 수 있다. 이때, 펜터치 조작이 인식되고 있다면 제2패치(620)가 펜터치 위치인지 제3패치(1130)가 펜터치 위치인지 문제된다.11, the first patch 610 may be determined as a large object by the processing unit 430 and the second patch 620 and the third patch 1130 may not be determined as a large object or may be determined as a small object . At this time, if the pen touch operation is recognized, it is a problem whether the second patch 620 is the pen touch position or the third patch 1130 is the pen touch position.

좌표생성부(440)는 라지 오브젝트로 결정된 제1패치(610)로부터 최장거리에 있는 패치를 팬터치에 의한 패치로 결정할 수 있다. 예를 들어, 도 11에서 제1패치(610)와 제2패치(620)와의 거리가 제1패치(610)와 제3패치(1130)보다 길기 때문에 좌표생성부(440)는 라지 오브젝트로 결정된 제1패치(610)로부터 최장거리에 위치하는 제2패치(620)를 펜터치에 대응되는 패치로 식별할 수 있다. 이러한 방법은 일반적으로 라지 오브젝트 근처에는 의도되지 않은 손가락 터치 혹은 근접 오브젝트에 의한 잔상이 나타나고 원거리에 펜터치가 나타나는 현상을 반영한 것으로 펜터치의 위치를 결정하는 합리적이고 효율적인 방법이 될 수 있다.The coordinate generating unit 440 can determine the patch having the longest distance from the first patch 610 determined as a large object as a patch by the fan touch. 11, since the distance between the first patch 610 and the second patch 620 is longer than that between the first patch 610 and the third patch 1130, the coordinate generator 440 determines The second patch 620 located at the longest distance from the first patch 610 can be identified as a patch corresponding to the pen touch. Such a method generally reflects a phenomenon in which an unintended finger touch or proximity object appears near a large object and a pen touch appears at a long distance, which can be a reasonable and efficient method of determining the position of the pen touch.

앞선 설명에서, 복수의 패치에 대해서 화소수가 제1기준값 이상인 라인의 개수를 카운트하고 카운트된 값이 제2기준값 이상인 패치들을 라지 오브젝트로 결정하는 실시예들에 대해 설명하였다.In the foregoing description, the embodiments have been described in which the number of lines having the number of pixels equal to or larger than the first reference value is counted for a plurality of patches, and the patches having the counted value equal to or larger than the second reference value are determined as large objects.

이러한 실시예들에 따르면, 일정 폭 이상을 가지면서 일정 높이(제2기준값) 이상을 가지는 패치를 손쉽게 식별해 낼 수 있게 된다. 라지 오브젝트는 일정한 넓이를 가지고 있다는 측면에서 일정 폭과 일정 높이를 고려하는 이러한 방식은 정확도가 높은 방식이다. 또한 이러한 실시예들에 따르면, 터치인식장치(120)가 일정폭 이상의 라인들을 단순 카운트함으로써 라지 오브젝트 여부를 판단할 수 있는데, 이러한 측면에서 이러한 방식은 메모리와 프로세서를 효율적으로 사용하게 한다.According to these embodiments, a patch having a predetermined height or more (a second reference value) or more can be easily identified. This method, which considers a fixed width and a constant height in terms of having a certain width, is a highly accurate method. According to these embodiments, the touch recognition apparatus 120 can determine whether a large object is a simple object by counting lines over a certain width. In this respect, this method makes efficient use of the memory and the processor.

라지 오브젝트는 터치인식장치(120)에서 다양하게 활용될 수 있다. 펜터치와 같이 스몰 오브젝트를 터치로 인식해야 하는 상황에서 터치인식장치(120)는 라지 오브젝트로 결정된 패치들을 제외하고 나머지 패치들만에 대해 좌표를 생성하고 해당 좌표를 호스트(230)로 송신할 수 있다. 반면에 호버링과 같이 라지 오브젝트를 이용하여 사용자 조작이 이루어지는 상황에서 터치인식장치(120)는 라지 오브젝트로 결정된 패치들에 대해 좌표를 생성하여 해당 좌표를 호스트(230)로 송신할 수 있다. 또한, 터치인식장치(120)는 이러한 용도 이외에 라지 오브젝트와 스몰 오브젝트 사이의 거리를 이용하여 펜터치에 대응되는 패치를 보다 정확하게 식별할 수 있다.The large object can be variously utilized in the touch recognition device 120. [ In a situation where a small object such as a pen touch needs to be recognized by a touch, the touch recognition device 120 may generate coordinates for only the remaining patches, excluding the patches determined as large objects, and transmit the coordinates to the host 230 . On the other hand, in a situation where a user operation is performed using a large object such as hovering, the touch recognition device 120 can generate coordinates for patches determined as large objects and transmit the coordinates to the host 230. [ In addition, the touch recognition apparatus 120 can more accurately identify the patch corresponding to the pen touch by using the distance between the large object and the small object, in addition to this use.

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Generally used terms such as predefined terms should be interpreted to be consistent with the contextual meanings of the related art and are not to be construed as ideal or overly formal meanings unless explicitly defined in the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (11)

터치패널에 근접하거나 접촉하는 오브젝트들에 대한 센싱신호들로부터 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 이미지생성부;
상기 터치이미지로부터 적어도 하나의 패치를 식별하는 식별부; 및
상기 터치이미지를 스캔하면서 각 패치별로 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하고 상기 제1변수가 제2기준값 이상인 패치를 라지 오브젝트로 결정하는 처리부
를 포함하는 터치인식장치.
An image generating unit for generating a touch image composed of a plurality of row lines and a plurality of column lines from sensing signals for objects in proximity to or touching the touch panel;
An identification unit for identifying at least one patch from the touch image; And
A processing unit for counting the number of lines having a pixel number greater than or equal to a first reference value as a first variable and determining a patch having a first variable equal to or greater than a second reference value as a large object,
And a touch recognition device.
제1항에 있어서,
상기 처리부는,
각 패치별로 연속된 화소수의 최대값이 제1기준값 이상인 라인의 개수를 제1변수로 카운트하는 것을 특징으로 하는 터치인식장치.
The method according to claim 1,
Wherein,
And counts the number of lines whose maximum value of the number of consecutive pixels per each patch is equal to or greater than the first reference value as the first variable.
제1항에 있어서,
상기 식별부는,
각 패치에 라벨들을 부여하고 각 패치의 화소에 상기 라벨들을 태그하는 것을 특징으로 하는 터치인식장치.
The method according to claim 1,
Wherein,
Wherein labels are assigned to each patch and the labels are tagged to pixels of each patch.
제3항에 있어서,
상기 처리부는,
제1화소에 태그된 라벨에 대응되는 제1패치로 제2변수를 할당하고 상기 제1화소의 다음으로 스캔되는 제2화소의 라벨과 상기 제1화소의 라벨이 동일하면 상기 제2변수를 증가시키고 상기 제2변수가 상기 제1기준값 이상이면 상기 제1패치에 대응되는 제1변수를 증가시키는 것을 특징으로 하는 터치인식장치.
The method of claim 3,
Wherein,
Assigning a second variable to a first patch corresponding to a label tagged to the first pixel, and if the label of the second pixel scanned next to the first pixel is the same as the label of the first pixel, And increases the first variable corresponding to the first patch if the second variable is equal to or greater than the first reference value.
제4항에 있어서,
상기 제1화소의 라벨과 상기 제2화소의 라벨이 상이하면 상기 제2변수를 리셋하는 것을 특징으로 하는 터치인식장치.
5. The method of claim 4,
And resets the second variable if the label of the first pixel is different from the label of the second pixel.
제1항에 있어서,
상기 처리부는,
행방향 및 열방향 각각에 대해 각 패치들의 라지 오브젝트 여부를 결정하는 것을 특징으로 하는 터치인식장치.
The method according to claim 1,
Wherein,
Whether or not each of the patches is a large object for each of the row direction and the column direction.
제1항에 있어서,
상기 이미지생성부는,
두 센싱신호들의 차이값으로 생성되는 로우 데이터를 라인별로 적산하여 상기 터치이미지를 생성하는 것을 특징으로 하는 터치인식장치.
The method according to claim 1,
The image generation unit may include:
And generates the touch image by integrating the row data generated by the difference value of the two sensing signals on a line by line basis.
제1항에 있어서,
라지 오브젝트로 결정된 패치를 제외한 나머지 패치에 대해 좌표값을 생성하고 호스트로 전송하는 좌표생성부를 더 포함하는 것을 특징으로 하는 터치인식장치.
The method according to claim 1,
And a coordinate generator for generating coordinate values for the remaining patches other than the patch determined as the large object and transmitting the coordinate values to the host.
근접하거나 접촉하는 오브젝트들에 대한 터치패널의 센싱신호들을 수신하는 단계;
상기 센싱신호들을 처리하여 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 단계;
상기 터치이미지로부터 적어도 하나의 패치를 식별하는 단계;
상기 적어도 하나의 패치 중 제1패치에 대해 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하는 단계; 및
상기 제1변수가 제2기준값 이상인 경우 상기 제1패치를 라지 오브젝트로 결정하는 단계
를 포함하는 터치인식방법.
Receiving sensing signals of a touch panel for objects in proximity or contact;
Processing the sensing signals to generate a touch image comprising a plurality of row lines and a plurality of column lines;
Identifying at least one patch from the touch image;
Counting the number of lines whose number of pixels is equal to or greater than a first reference value with respect to a first patch of the at least one patch as a first variable; And
Determining the first patch as a large object if the first variable is equal to or greater than a second reference value
And a touch recognition method.
제9항에 있어서,
라지 오브젝트로 결정된 제1패치와 라지 오브젝트로 결정되지 않은 제2패치 사이의 거리가 일정값 이상이면 상기 제2패치를 펜에 의한 터치로 인식하는 것을 특징으로 하는 터치인식방법.
10. The method of claim 9,
Wherein when the distance between the first patch determined as a large object and the second patch determined as a large object is a predetermined value or more, the second patch is recognized as a touch by a pen.
제9항에 있어서,
상기 제1패치가 라지 오브젝트로 결정되면 상기 제1패치로부터 최장거리에 위치하는 패치를 펜터치에 의한 패치로 결정하는 단계를 더 포함하는 것을 특징으로 하는 터치인식방법.
10. The method of claim 9,
Further comprising the step of, when the first patch is determined as a large object, determining a patch located at the longest distance from the first patch as a patch by a pen touch.
KR1020150054189A 2015-04-17 2015-04-17 Touch sensing method and apparatus for identifying large object KR102335556B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150054189A KR102335556B1 (en) 2015-04-17 2015-04-17 Touch sensing method and apparatus for identifying large object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150054189A KR102335556B1 (en) 2015-04-17 2015-04-17 Touch sensing method and apparatus for identifying large object

Publications (2)

Publication Number Publication Date
KR20160123702A true KR20160123702A (en) 2016-10-26
KR102335556B1 KR102335556B1 (en) 2021-12-07

Family

ID=57251556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150054189A KR102335556B1 (en) 2015-04-17 2015-04-17 Touch sensing method and apparatus for identifying large object

Country Status (1)

Country Link
KR (1) KR102335556B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220110037A (en) * 2021-01-29 2022-08-05 하이맥스 테크놀로지스 리미티드 Touch signal processing method and related touch device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100113792A (en) * 2009-04-14 2010-10-22 에이디반도체(주) Apparatus and method for recognition of pen touch for multi-touch screen
KR20120081733A (en) * 2011-01-12 2012-07-20 한밭대학교 산학협력단 Apparatus and method for classifying contact-media on touchscreen
KR101180865B1 (en) * 2011-05-25 2012-09-07 (주)나노티에스 Method for detecting a touch pen coordinate and system for performing the method
KR20140104737A (en) * 2013-02-21 2014-08-29 주식회사 실리콘웍스 Circuit and method for controling of differential touch sensing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100113792A (en) * 2009-04-14 2010-10-22 에이디반도체(주) Apparatus and method for recognition of pen touch for multi-touch screen
KR20120081733A (en) * 2011-01-12 2012-07-20 한밭대학교 산학협력단 Apparatus and method for classifying contact-media on touchscreen
KR101180865B1 (en) * 2011-05-25 2012-09-07 (주)나노티에스 Method for detecting a touch pen coordinate and system for performing the method
KR20140104737A (en) * 2013-02-21 2014-08-29 주식회사 실리콘웍스 Circuit and method for controling of differential touch sensing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220110037A (en) * 2021-01-29 2022-08-05 하이맥스 테크놀로지스 리미티드 Touch signal processing method and related touch device

Also Published As

Publication number Publication date
KR102335556B1 (en) 2021-12-07

Similar Documents

Publication Publication Date Title
US10909916B2 (en) OLED array substrate, OLED display panel, pixel circuit, driving method and method for fingerprint recognition using OLED display panel
US9569046B2 (en) Touch controller including a plurality of detectors to detect electrical change, electronic device and display device including touch controller, and touch sensing method
US9880688B2 (en) Active matrix capacitive sensor for common-mode cancellation
US9684400B2 (en) Capacitive sensing detection method for an active pixel matrix
US10430633B2 (en) Pixel architecture and driving scheme for biometric sensing
US10540028B2 (en) Touch detecting apparatus and touch detecting method using pixel or pixels in display devices
KR101429923B1 (en) Method for labeling touch region and apparatus for driving touch sensor using the same
EP3201741A1 (en) Integrated self-capacitive touch display
US10216972B2 (en) Pixel architecture and driving scheme for biometric sensing
US10394391B2 (en) System and method for reducing display artifacts
US11221701B2 (en) Touch display device and driving method with orthogonal touch driving signals
JP2015194987A (en) Input device and display device
US9304638B2 (en) Display device with a touch panel for determining a normal touch and driving method thereof
JP2018045283A (en) Touch detection function-attached display device and control method
WO2020224309A1 (en) Electronic apparatus having fingerprint sensing function
JP5475498B2 (en) Display device with touch panel
CN105807984B (en) Touch recognition method for display device and display device using the same
KR101970558B1 (en) Apparatus for driving touch sensor
KR20160123704A (en) Touch system and touch ic for sharing data, and control method thereof
KR20160123702A (en) Touch sensing method and apparatus for identifying large object
US11269448B2 (en) Touch sensor, display device, and method of driving a touch sensor
JP2019016154A (en) Display device
KR20170142807A (en) Integration dispaly apparatus with display and touch function
KR20230102758A (en) Touch sensing apparatus and the method of sensing touch by touch sensing apparatus
KR20230090827A (en) Touch sensing apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant