KR20160123702A - Touch sensing method and apparatus for identifying large object - Google Patents
Touch sensing method and apparatus for identifying large object Download PDFInfo
- Publication number
- KR20160123702A KR20160123702A KR1020150054189A KR20150054189A KR20160123702A KR 20160123702 A KR20160123702 A KR 20160123702A KR 1020150054189 A KR1020150054189 A KR 1020150054189A KR 20150054189 A KR20150054189 A KR 20150054189A KR 20160123702 A KR20160123702 A KR 20160123702A
- Authority
- KR
- South Korea
- Prior art keywords
- patch
- touch
- large object
- variable
- lines
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
Abstract
Description
본 발명은 터치를 인식하는 기술에 관한 것이다. 더욱 상세하게는 라지 오브젝트를 식별하는 터치 인식 기술에 관한 것이다. The present invention relates to a technique for recognizing a touch. And more particularly to a touch recognition technique for identifying a large object.
사용자 입력 장치로서 활용되어 오던 키보드 혹은 마우스는 별도의 장치를 포함하고 있다는 측면에서 표시장치의 경량화 및 슬림화에 부담이 되는 장치였다. 최근 활발히 도입되고 있는 터치인식기술은 이러한 측면에서 표시장치의 경량화 및 슬림화를 촉진하는 기폭제가 되고 있다.The keyboard or mouse, which has been utilized as a user input device, is a device that is burdened in weight and slimness of the display device in that it includes a separate device. Recently, the touch recognition technology, which is actively being introduced, is becoming a catalyst for promoting the weight and slimness of display devices in this respect.
터치인식기술은 주로 센서를 포함하고 있는 터치패널에 오브젝트가 근접하거나 접촉하였을 때 발생하는 신호를 감지하여 사용자의 입력 조작을 인식하는 기술로서 자기방식, 저항방식, 정전방식 등 다양한 방식이 사용되고 있으나 최근에는 정전방식이 대세를 이루고 있다.The touch recognition technology is a technique for recognizing a user's input operation by sensing a signal generated when an object comes in contact with or approaching a touch panel including a sensor, and various methods such as a magnetic method, a resistance method, and an electrostatic method are used The electrostatic discharge method is becoming popular.
사용자 입력 조작의 행태적 측면에서 보면, 터치인식기술은 종래 비교적 터치인식의 해상도가 높지 않아도 되었던 버튼터치인식 혹은 슬라이딩터치인식에서 최근에는 높은 터치인식 해상도를 요구하는 펜터치인식까지 발전해 오고 있다. 그런데, 최근 도입되고 있는 이러한 펜터치인식기술은 종래의 기술수준에서는 문제가 되지 않았던 새로운 유형의 문제가 나타나고 있어 이에 대한 해결책 마련이 요구되고 있다.From the viewpoint of the behavior of the user input operation, the touch recognition technology has been developed from the button touch recognition or the sliding touch recognition, which has not required a high resolution of the conventional touch recognition, to the pen touch recognition that requires a high touch recognition resolution. However, the pen-touch recognition technology that has been recently introduced has a new type of problem that has not been a problem at the level of the prior art, and a solution for this problem is required.
도 1은 사용자가 펜을 이용하여 터치패널을 터치하는 일 상황에서 터치로 인식될 수 있는 부분을 나타내는 도면이다.1 is a view showing a portion that can be recognized by a touch when the user touches the touch panel using a pen.
도 1의 좌측도면을 참조하면, 사용자(11)는 펜(12)을 이용하여 터치패널(10)을 터치한다. 도 1에서 터치패널(10)은 사용자(11)의 신체 접촉을 인식할 수 있을 뿐만 아니라 펜(12)의 접촉 또한 인식함으로써 사용자(11)가 펜(12)을 사용하여 터치 조작을 수행할 수 있게 한다. 사용자(11)의 신체는 정교한 형상-예를 들어, 터치를 위해 주로 사용되는 사용자의 손가락은 표면적이 넓고 정형화되지 않은 형상을 가짐-을 가지고 있지 않기 때문에 사용자(11)는 신체를 이용한 터치 조작을 통해 정교한 제어를 수행하기 어렵다. 이에 반해, 펜(12)은 정교한 형상(예를 들어, 원형이며 표면적인 작은 형상)을 가질 수 있기 때문에, 사용자(11)는 이러한 정교한 형상의 펜(12)을 사용하여 보다 세밀한 제어를 수행할 수 있다. 그런데, 사용자(11)는 펜(12)을 이용한 터치 조작 과정에서 도 1의 우측도면에 도시된 것과 같은 문제를 야기시킬 수 있다.1, the
도 1의 우측도면은 도 1의 좌측도면과 같은 사용자 조작과정에서 사용자(11) 신체 및 펜(12)이 터치패널(10)과 접촉한 부분을 나타낸다. 도 1의 좌측도면을 참조하면, 사용자(11)가 펜(12)으로 터치패널(10)을 터치할 때, 손의 일부분이 펜(12)과 함께 터치패널(10)에 접촉되고 있다. 이에 따라, 터치패널(10)은 도 1의 우측도면에 도시된 것과 같이 손의 일부분이 터치된 부분(13)과 펜(12)이 터치된 부분(14)에서 터치센싱신호를 발생시킬 수 있다.1 shows a portion where the
사용자(11)는 펜(12)을 조작할 때, 통상적으로 손의 일부분을 펜(12)이 접촉되는 물체 위에 올려놓게 되는데, 이러한 사용자(11)의 행동에 의해 터치패널(10)은 도 1의 우측도면과 같이 펜(12)이 터치되는 부분(14) 뿐만 아니라 사용자(11)의 손의 일부분이 터치되는 부분(13)에서도 터치센싱신호를 발생시키게 된다. 이러한 경우, 터치인식장치는 터치된 두 부분(13, 14) 중 어떠한 터치가 사용자(11)가 의도한 터치인지 판단하기 어렵게 된다. 특히, 터치인식장치가 펜터치부분(13)이 아닌 손의 일부분이 터치된 부분(13)에 따라 제어를 수행하는 경우, 사용자(11)가 의도하지 않은 방향으로 제어되어 오동작을 일으킬 가능성이 커지게 된다.When the
이러한 배경에서, 본 발명의 목적은, 일 측면에서, 의도되지 않은 터치를 식별하는 기술을 제공하는 것이다.In this context, an object of the present invention is, in one aspect, to provide a technique for identifying an unintended touch.
다른 측면에서, 본 발명의 목적은, 의도된 터치를 식별하는 기술을 제공하는 것이다.In another aspect, an object of the present invention is to provide a technique for identifying an intended touch.
또 다른 측면에서, 본 발명의 목적은, 라지 오브젝트를 식별하는 기술을 제공하는 것이다.In another aspect, an object of the present invention is to provide a technique for identifying a large object.
전술한 목적을 달성하기 위하여, 일 측면에서, 본 발명은, 터치패널에 근접하거나 접촉하는 오브젝트들에 대한 센싱신호들로부터 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 이미지생성부, 상기 터치이미지로부터 적어도 하나의 패치를 식별하는 식별부 및 상기 터치이미지를 스캔하면서 각 패치별로 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하고 상기 제1변수가 제2기준값 이상인 패치를 라지 오브젝트로 결정하는 처리부를 포함하는 터치인식장치를 제공한다.In order to accomplish the above object, in one aspect, the present invention provides a method of generating a touch image comprising a plurality of row lines and a plurality of column lines from sensing signals for objects in proximity to or touching a touch panel An image generation unit, an identification unit for identifying at least one patch from the touch image, and a controller for counting the number of lines having the number of pixels of each patch greater than or equal to a first reference value as a first variable while scanning the touch image, And a processing unit for determining a patch having a reference value or more as a large object.
다른 측면에서, 본 발명은, 근접하거나 접촉하는 오브젝트들에 대한 터치패널의 센싱신호들을 수신하는 단계, 상기 센싱신호들을 처리하여 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 단계, 상기 터치이미지로부터 적어도 하나의 패치를 식별하는 단계, 상기 적어도 하나의 패치 중 제1패치에 대해 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하는 단계 및 상기 제1변수가 제2기준값 이상인 경우 상기 제1패치를 라지 오브젝트로 결정하는 단계를 포함하는 터치인식방법을 제공한다. In another aspect, the present invention provides a method for generating a touch image, the method comprising the steps of: receiving sensed signals of a touch panel for objects in proximity or contact; processing the sensed signals to generate a touch image comprising a plurality of row lines and a plurality of column lines Identifying at least one patch from the touch image, counting the number of lines for which the number of pixels is greater than or equal to a first reference value for a first patch of the at least one patch as a first variable, And determining the first patch to be a large object if the second reference value is equal to or greater than a second reference value.
이상에서 설명한 바와 같이 본 발명에 의하면, 의도되지 않은 터치를 식별하거나 의도된 터치를 식별할 수 있다. 또한, 본 발명에 의하면, 라지 오브젝트를 식별함으로써 라지 오브젝트와 연관된 터치를 식별할 수 있게 된다.As described above, according to the present invention, an unintended touch can be identified or an intended touch can be identified. Further, according to the present invention, identification of a large object makes it possible to identify a touch associated with the large object.
도 1은 펜을 이용한 터치의 일 상황에서 터치로 인식될 수 있는 부분을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 표시장치의 구성도이다.
도 3은 도 2의 터치인식장치의 내부 구성도이다.
도 4는 도 3의 이미지처리블록의 내부 구성도이다.
도 5는 각 센서의 신호값으로 생성된 터치이미지를 나타내는 도면이다.
도 6은 도 5의 터치이미지에서 복수의 패치를 식별한 것을 나타내는 도면이다.
도 7은 행방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.
도 8은 도 7의 예시에 따른 라지 오브젝트 결정 방법의 흐름도이다.
도 9는 열방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.
도 10은 터치이미지의 일부 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.
도 11은 라지 오브젝트를 이용하여 펜터치를 인식하는 예시를 설명하기 위한 도면이다.1 is a diagram showing a portion that can be recognized by a touch in a situation of a touch using a pen.
2 is a configuration diagram of a display device according to an embodiment of the present invention.
3 is an internal configuration diagram of the touch recognition device of FIG.
4 is an internal configuration diagram of the image processing block of Fig.
5 is a view showing a touch image generated by signal values of the respective sensors.
Fig. 6 is a diagram showing a plurality of patches identified in the touch image of Fig. 5; Fig.
7 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the row direction.
8 is a flowchart of a method of determining a large object according to the example of FIG.
9 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the column direction.
10 is a diagram for explaining an example of determining a large object while scanning a partial area of a touch image.
11 is a diagram for explaining an example of recognizing a pen touch using a large object.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."
도 2는 본 발명의 일 실시예에 따른 표시장치의 구성도이다.2 is a configuration diagram of a display device according to an embodiment of the present invention.
도 2를 참조하면, 표시장치(100)는 표시패널(210) 및 터치패널(110)을 포함하고, 표시패널(210)을 구동하기 위한 드라이버장치(220) 및 터치패널(110)을 구동하고 센싱하기 위한 터치인식장치(120)을 포함할 수 있다. 또한, 표시장치(100)는 이러한 드라이버장치(220)와 터치인식장치(120)와 정보를 주고 받을 수 있는 호스트(230)를 포함할 수 있다.2, the
도 2를 참조하여 설명하는 실시예에서는 표시패널(210)과 터치패널(220)이 구분되어 있는 것으로 설명하나 본 발명이 이러한 실시예로 제한되는 것은 아니며 표시패널(210)과 터치패널(220)은 일부 전극을 공유하는 일체형 패널의 형태를 가질 수도 있다. 예를 들어, 표시장치(100)는 인셀(In-cell)타입의 패널(미도시)을 포함할 수 있는데, 이러한 인셀타입의 패널(미도시)은 공통전극을 표시전극으로도 사용하고 또한 터치전극으로도 사용하는 일체형 패널의 형태를 가진다. 아래의 실시예에서는 설명의 편의를 위해 표시장치(100)가 표시패널(210)과 터치패널(220)을 각각 포함하고 있는 것으로 설명하나 본 발명은 이로 제한되지 않는다.2, the
도 2를 참조하여 설명하는 실시예에서는 또한 드라이버장치(220) 및 터치인식장치(120)가 분리되어 있는 것으로 설명하나 본 발명이 이러한 실시예로 제한되는 것은 아니다. 드라이버장치(220) 및 터치인식장치(120)는 하나의 집적회로(Integrated Circuit)장치에 통합되어 있을 수 있다. 특히, 표시장치(100)가 일체형 패널을 포함하고 있는 경우 드라이버장치(220) 및 터치인식장치(120)가 통합되어 있는 형태가 장점을 발휘할 수 있는데, 예를 들어, 인셀타입의 패널(미도시)에서 공통전극을 표시전극으로도 사용하고 터치전극으로도 사용하게 되는데, 이때, 드라이버장치(220) 및 터치인식장치(120)가 통합되어 있는 경우, 하나의 구동회로를 이용하여 공통전극을 표시전극용으로도 구동할 수 있고 터치전극용으로도 구동할 수 있다. 아래의 실시예에서는 설명의 편의를 위해 표시장치(100)가 드라이버장치(220) 및 터치인식장치(120)를 각각 포함하고 있는 것으로 설명하나 전술한 바와 같이 본 발명은 이로 제한되지 않는다.2, the
표시패널(210)은 액정표시소자(Liquid Crystal Display, LCD), 전계방출 표시소자(Field Emission Display : FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 유기발광 표시장치(Organic Light Emitting Display, OLED), 전기영동 표시소자(Electrophoresis, EPD) 등의 평판 표시소자 기반으로 구현될 수 있다.표시패널(210)이 액정표시소자로 되어 있는 실시예에서, 표시패널(210)은 두 장의 기판들 사이에 액정층이 형성될 수 있다. 이러한 실시예에서 표시패널(210)의 하부 기판에는 다수의 데이터라인들, 데이터라인들과 교차되는 다수의 게이트라인들, 데이터라인들과 게이트라인들의 교차부들에 형성되는 다수의 TFT들(Thin Film Transistor), 액정셀들에 데이터전압을 충전시키기 위한 다수의 표시전극, 표시전극에 접속되어 액정셀의 전압을 유지시키기 위한 스토리지 커패시터(Storage Capacitor) 등을 포함할 수 있다. 이러한 실시예에서 표시패널(210)의 상부 기판에는 블랙매트릭스, 컬러필터, 편광판 등을 포함할 수 있다.The
드라이버장치(220)는 호스트(230) 혹은 타이밍콘트롤러(미도시)로부터 입력되는 디지털 비디오 데이터(RGB)를 아날로그 정극성/부극성 감마보상전압으로 변환하여 데이터전압(DATA)을 출력할 수 있다. 데이터전압은 데이터라인들에 공급될 수 있다. 드라이버장치(220)는 또한, 게이트펄스(SCAN)를 게이트라인들에 순차적으로 공급하여 데이터 전압(DATA)이 기입되는 표시패널(210)의 라인을 선택할 수 있다.The
이러한 표시패널(210) 및 드라이버장치(220)는 표시장치(100)에서 화면에 영상을 표시하는 것과 관련된 구성들이다. 계속해서 도 2를 참조하면서, 표시장치(100)에서 터치를 인식하는 것과 관련된 구성에 대해 살펴본다.The
표시장치(100)는 사용자 조작으로서의 터치를 인식하기 위해 터치패널(110) 및 터치인식장치(120)를 포함할 수 있다.The
터치패널(110)은 표시패널(210)의 상부 편광판 상에 접합되거나, 상부 편광판과 상부 기판 사이에 형성될 수 있다. 또한, 터치패널(110)이 인셀타입으로 형성되는 경우, 표시패널(210) 내에서 픽셀 어레이와 함께 하부기판에 형성될 수도 있다. 센서센서터치패널(110)은 구동전극들, 수신전극들 및 센서들을 포함할 수 있다. 구동전극들 및 수신전극들은 일 예로서 서로 다른 층에 위치하면서 서로 교차할 수 있다-교차구조. 이러한 교차구조에서 센서들은 구동전극들과 수신전극들의 교차부에 형성되는 캐패시터들일 수 있다. 다른 예로서 구동전극들과 수신전극들은 서로 같은 층에 위치할 수 있다-1-layer(원레이어)구조. 이러한 원레이어구조에서 센서들은 구동전극들과 수신전극들 사이에 수평적으로 형성되는 캐패시터들일 수 있다. 또 다른 예로서 구동전극이 수신전극이 될 수 있다-셀프구조. 이러한 셀프구조에서 센서들은 수신전극과 주변 전극들 사이에 형성되는 캐패시터들일 수 있다. 터치패널(110)에서의 이러한 구동전극들 및 수신전극들의 위치 관계는 예시일 뿐이며 구동전극들 및 수신전극들은 이러한 예시들과는 다른 형태의 위치 관계를 형성할 수 있다. 수신전극들과 주변전극들 혹은 수신전극들 사이에서 센서로서 캐패시터가 형성되고 터치패널(110)에 접근 혹은 접촉하는 오브젝트에 의해 캐패시터의 캐패시턴스가 변하게 되는 구조의 예시들은 모두 본 발명의 실시예에 따른 터치패널(110)에 적용될 수 있다. The
여기서, 센서들은 터치패널(110)로 근접하거나 접촉하는 오브젝트를 센싱한다는 측면에서 터치센서들로 호칭될 수 있으나 본 발명이 이러한 용어로 제한되는 것은 아니다. 아래에서 다른 수식이 추가되지 않는다면 센서는 터치센서와 같은 의미로 해석될 수 있다.Here, the sensors may be referred to as touch sensors in terms of sensing an object approaching or touching the
터치인식장치(120)는 구동전극들에 구동신호(TX)를 공급하고 수신전극들을 통해 센서의 센싱신호(RX)를 센싱하여 터치좌표를 생성하고 이러한 터치좌표 데이터를 호스트(230)로 송신할 수 있다.The
도 3은 도 2의 터치인식장치의 내부 구성도이다.3 is an internal configuration diagram of the touch recognition device of FIG.
도 3을 참조하면, 터치인식장치(120)는 아날로그전단(310), 디지털신호처리블록(320), 메모리(330), 이미지처리블록(340) 및 신호입력단(350) 등을 포함할 수 있다.3, the
아날로그전단(310)은 구동펄스를 생성하는 PWM(Pulse Width Modulation)생성회로, 터치패널(110)에 형성되어 있는 구동전극들로 구동신호(Tx)를 공급할 수 있는 구동회로, 수신전극들로부터 수신되는 센싱신호(Rx)를 처리할 수 있는 센싱회로 등을 포함할 수 있다.The analog
PWM생성회로에서는 주기적인 센싱을 위한 구동펄스가 생성되는데, 구동회로는 이러한 구동펄스에 동기된 구동신호(Tx)를 터치패널(110)로 공급한다. In the PWM generation circuit, a driving pulse for periodic sensing is generated. The driving circuit supplies the driving signal Tx synchronized with the driving pulse to the
센싱회로는 구동신호(Tx)에 의해 각 센서들에 형성된 전압 혹은 전압의 변화를 센싱한다. 정전용량방식 터치패널(110)에서 센서에는 캐패시턴스(정전용량)가 형성되는데, 터치에 의해 캐패시턴스의 변화가 발생한 경우 센서에는 이러한 캐패시턴스의 변화를 반영한 전압 혹은 전압의 변화가 발생하기 때문에 센싱회로는 이러한 센서의 전압 혹은 전압의 변화를 센싱하게 된다.The sensing circuit senses a change in voltage or voltage formed in each of the sensors by the drive signal Tx. In the capacitance
센싱회로는 주기적으로 인가되는 구동신호(Tx)에 대응한 센싱신호(Rx)를 차동 방식으로 센싱할 수 있다. 센싱회로는 센싱신호(Rx)를 차동 방식으로 센싱하기 위해 차동증폭회로를 더 포함할 수 있다. 센싱회로는 이러한 차동증폭회로를 이용하여 서로 인접한 두 개의 Rx 라인들의 센싱신호를 차동 증폭할 수 있다. 센싱회로가 차동 방식으로 센싱하는 경우, 공통 모드 노이즈(Common Mode Noise)가 저감되는 효과가 있다. The sensing circuit can sense the sensing signal Rx corresponding to the driving signal Tx applied periodically in a differential manner. The sensing circuit may further include a differential amplification circuit for sensing the sensing signal Rx in a differential manner. The sensing circuit can differentially amplify sensing signals of two adjacent Rx lines by using the differential amplification circuit. When the sensing circuit senses in a differential manner, common mode noise is reduced.
디지털신호처리블록(320)은 센싱회로에 의해 처리된 아날로그 센싱신호를 디지털 센싱데이터로 변환하여 메모리(330)에 저장할 수 있다. 이때, 메모리(330)에 저장되는 데이터를 로우 데이터(Raw Data)라고도 한다. 로우 데이터(Raw Data)는 정제되지 않은 원초적인 형태의 데이터를 부를 때 주로 사용되는 용어로서 디지털신호처리블록(320)에 의해 변환된 디지털 센싱데이터가 최종적으로 사용되는 데이터가 아닌 원초적인 형태의 데이터라는 것을 의미한다. 구체적으로 이러한 로우 데이터에는 도 1을 참조하여 설명한 의도되지 않은 터치에 대한 센싱데이터와 의도된 터치에 대한 센싱데이터가 혼재되어 있다.The digital
이미지터리블록(340)은 로우 데이터를 정제하여 의도되지 않은 터치를 식별해 내거나 이러한 의도되지 않은 터치를 제거하는 처리를 수행할 수 있다. The
이미지처리블록(340)은 메모리(330)에 저장되어 있는 디지털 센싱데이터를 처리하여 터치정보를 생성한 후, 신호입력단(350)을 통해 호스트(230)로 전달한다.The image processing block 340 processes the digital sensing data stored in the
도 4는 도 3의 이미지처리블록의 내부 구성도이다.4 is an internal configuration diagram of the image processing block of Fig.
도 4를 참조하면, 이미지처리블록(340)은 이미지생성부(410), 식별부(420), 처리부(430) 및 좌표생성부(440) 등을 포함할 수 있다.4, the
이미지생성부(410)는 터치패널(110)에 근접하거나 접촉하는 오브젝트들에 대한 센싱신호들로부터 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성할 수 있다.The
터치패널(110)에는 다수의 센서들이 있고 각각의 센서들의 위치별에 대응되는 화소들로 센싱데이터들이 저장되기 때문에 이미지생성부(410)는 이러한 화소들을 이용하여 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성할 수 있다.Since the
이때, 아날로그전단(310)이 차동방식으로 센싱신호를 처리하는 경우 화소들에는 두 센서 사이의 차이값에 해당되는 차동 센싱데이터가 저장될 수 있는데, 이미지생성부(410)는 이러한 두 센서 사이의 차이값 형태로 터치이미지를 생성할 수도 있고, 다른 예로서, 이미지생성부(410)는 차동 센싱데이터를 누적시켜 각 센서의 신호값 형태로 터치이미지를 생성할 수도 있다.In this case, when the analog
아날로그전단(310)에서 차동방식으로 센싱신호를 처리할 때, 라인별로 인접한 센서 사이에서 차이값을 생성하게 되는데, 이렇게 생성된 차동 센싱데이터는 라인별로 순차적으로 적산함으로써 각 센서의 신호값 형태로 복원시킬 수 있다. 이러한 원리에서 이미지생성부(410)는 두 센서들 혹은 두 센싱신호들의 차이값으로 생성되는 로우 데이터를 라인별로 적산하여 터치이미지를 생성할 수 있게 된다.When processing a sensing signal in a differential manner in the analog
도 5는 각 센서의 신호값으로 생성된 터치이미지를 나타내는 도면이다.5 is a view showing a touch image generated by signal values of the respective sensors.
도 5를 참조하면, 12개의 행과 16개의 열로 이루어진 매트릭스에 각 센서의 신호값이 저장된 터치이미지의 예시가 표시되고 있다.Referring to FIG. 5, an example of a touch image in which signal values of respective sensors are stored in a matrix of 12 rows and 16 columns is displayed.
도 5에서 각 화소에 표시된 값은 터치패널(110)의 각 센서들에서의 캐패시턴스 혹은 캐패시턴스의 변화를 대표하는 값들일 수 있다. 예를 들어, 터치패널(110)에 오브젝트가 근접하거나 접촉하게 되면 오브젝트의 근접 위치 혹은 접촉 위치 센서들의 캐패시턴스가 증가할 수 있는데-캐패시턴스가 감소하는 구조의 터치패널도 있음-, 도 5의 터치이미지에 표시된 값들은 이러한 캐패시턴스의 변화에 비례하는 값일 수 있다.In FIG. 5, the values displayed on the respective pixels may be values representative of a change in capacitance or capacitance in each of the sensors of the
이러한 실시예에 따를 때, 도 5의 터치이미지에서 숫자가 큰 부분은 오브젝트가 근접하거나 접촉한 위치일 수 있다. 각 센서들 중 터치가 이루어진 부분을 터치노드라고 할 때, 식별부(420)는 전술한 방식에 따라 신호값이 특정값보다 높은 위치를 터치노드로 인식할 수 있다. 예를 들어, 도 5의 실시예에서 식별부(420)는 신호값이 10이상인 위치를 터치노드로 인식할 수 있다.According to this embodiment, in the touch image of Fig. 5, the large number portion may be the position in which the object comes close or touches. When the touching portion of each sensor is referred to as a touch node, the identifying
터치노드에 대응되는 화소를 터치화소라 할 때, 터치화소들이 연속하여 연결되어 있는 것을 패치라고 할 수 있다. 터치이미지에는 복수의 패치가 나타날 수 있는데, 식별부(420)는 이러한 복수의 패치를 각각 식별할 수 있다.When a pixel corresponding to the touch node is referred to as a touch screen, it can be said that the touch pixels are continuously connected to each other. A plurality of patches may appear in the touch image, and the
도 6은 도 5의 터치이미지에서 복수의 패치를 식별한 것을 나타내는 도면이다.Fig. 6 is a diagram showing a plurality of patches identified in the touch image of Fig. 5; Fig.
식별부(420)는 터치이미지의 각 화소의 신호값들을 특정값(예를 들어, 10)과 비교하여 터치노드들을 인식하고 인접한 터치화소들을 그룹핑하여 복수의 패치(610, 620)를 식별할 수 있다. 이때, 제1패치(610)와 같이 각 패치들은 복수의 터치화소들로 구성될 수 있고, 제2패치(620)와 같이 단일 터치화소로 구성될 수 있다.The identifying
복수의 패치(610, 620)가 식별되면, 식별부(420) 각 패치들에 라벨들을 부여할 수 있다. 예를 들어, 식별부(420)는 제1패치(610)에 "L1"라벨을 부여할 수 있고, 제2패치(620)에 "L2"라벨을 부여할 수 있다.When a plurality of
식별부(420)는 각 패치들에 부여된 라벨을 각 패치들에 소속된 터치화소에 태그시킬 수 있다. 터치이미지는 메모리 상에 배열로서 저장되어 있을 수 있는데, 이때, 배열의 원소들에는 센서의 신호값과 라벨이 저장될 수 있는 데이터 구조가 형성되어 있을 수 있다. 식별부(420)는 각 화소의 데이터 구조에 라벨값을 저장하는 형태로 각 터치화소에 라벨을 태그할 수 있다.The
처리부(430)는 복수의 패치 중에서 의도되지 않은 터치에 의한 패치를 식별할 수 있다. 의도되지 않은 터치로는 노이즈에 의한 터치, 손떨림에 의한 터치, 물과 같은 이물질에 의한 터치, 손바닥과 같은 라지 오브젝트에 의한 터치 등이 있을 수 있다. 아래에서는 처리부(430)가 이러한 의도되지 않은 터치들 중 라지 오브젝트에 의한 터치를 식별하는 것과 관련된 실시예들을 설명한다.The
처리부(430)는 화소수가 제1기준값 이상인 라인의 개수가 제2기준값 이상인 패치들을 라지 오브젝트로 결정할 수 있다. 다시 말해, 처리부(430)는 패치들에 대해 일정 폭(제1기준값) 이상을 가지는 라인수가 일정값(제2기준값) 이상이면 해당 패치를 라지 오브젝트로 결정한다.The
이러한 방식에 의하면 처리부(430)는 일정 폭 이상을 가지면서 일정 높이(제2기준값) 이상을 가지는 패치를 손쉽게 식별해 낼 수 있게 된다. 라지 오브젝트는 일정한 넓이를 가지고 있다는 측면에서 일정 폭과 일정 높이를 고려하는 이러한 방식은 정확도가 높은 방식이다. 또한 처리부(430)는 일정폭 이상의 라인들을 단순 카운트함으로써 라지 오브젝트 여부를 판단할 수 있는데, 이러한 측면에서 이러한 방식은 메모리와 프로세서를 효율적으로 사용하는 방식이다.According to this method, the
구체적인 방법에 있어서, 처리부(430)는 라지 오브젝트를 결정하기 위해 전체 터치이미지를 스캔할 수도 있고 터치이미지의 일부 영역만 스캔할 수도 있다.In a specific method, the
먼저, 처리부(430)가 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트에 해당되는 패치들을 식별하는 실시예에 대해 설명한다.First, an embodiment in which the
도 7은 행방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.7 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the row direction.
도 7을 참조하면, 처리부(430)는 터치이미지의 전체 영역을 래스터 주사(raster scan)하듯이 첫번째 행(Y1)부터 마지막 행(Y12)까지 행방향으로 순차적으로 스캔(H-SCAN)하면서 복수의 패치 중 라지 오브젝트에 해당되는 패치를 식별할 수 있다.Referring to FIG. 7, the
도 7을 참조하면, 처리부(430)는 제1기준값으로 3을 가지고 있으면서 3 이상의 화소를 가지고 있는 Y5, Y6, Y7, Y8, Y9, Y10 행을 스캔하면서 제1패치(620)에 대한 라인수를 증가시키게 된다.7, the
처리부(430)는 터치이미지의 전체 영역에 대한 스캔이 완료된 후 제1패치(620)에 대해 카운트된 라인수(도 7의 예시에서는 6)가 제2기준값(예를 들어, 5)보다 크면 제1패치(620)를 라지 오브젝트로 결정할 수 있다.If the number of lines counted for the first patch 620 (6 in the example in FIG. 7) is greater than the second reference value (for example, 5) after the scan for the entire area of the touch image is completed, 1
반면에, 제2패치(610)는 스캔 과정에서 제1기준값 이상인 라인이 없기 때문에 처리부(430)는 제2패치(610)를 라지 오브젝트로 결정하지 않는다. 라지 오브젝트가 아니라는 측면에서 처리부(430)는 제2패치(610)를 스몰 오브젝트로 결정할 수도 있다.On the other hand, the
도 7의 실시예에 대해 흐름도를 참조하여 좀더 설명한다.The embodiment of FIG. 7 will be further described with reference to the flowchart.
도 8은 도 7의 예시에 따른 라지 오브젝트 결정 방법의 흐름도이다.8 is a flowchart of a method of determining a large object according to the example of FIG.
처리부(430)는 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트할 수 있다.The
이때, 처리부(430)는 필요한 패치들의 수만큼 제1변수를 설정할 수 있다. 예를 들어, 도 7의 예시에서 두 개의 패치들에 대해 제1변수를 각각 할당할 수 있다. 또는, 처리부(430)는 도 7의 예시에서 제1패치(610)에 대해서만 제1변수를 할당할 수 있다.At this time, the
도 8을 참조하여 설명하는 실시예에서는 처리부(430)가 각각의 패치들에 대해 모두 제1변수를 할당하는 방법에 대해 설명한다.In the embodiment described with reference to FIG. 8, a method in which the
처리부(430)는 각 라인별 화소수를 카운트하기 위해 제2변수를 할당할 수 있다.The
이때, 처리부(430)는 필요한 패치들의 수만큼 제2변수를 설정할 수도 있고, 제2변수를 하나만 설정할 수도 있다. At this time, the
도 8을 참조하여 설명하는 실시예에서는 처리부(430)가 각각의 패치들에 대해 모두 제2변수를 할당하는 방법에 대해 설명한다.In the embodiment described with reference to FIG. 8, a method in which the
도 8을 참조하면, 처리부(430)는 제1변수를 초기화(리셋)하고 스캔하는 행을 결정하기 위한 변수 N을 0으로 설정할 수 있다(S802).Referring to FIG. 8, the
처리부(430)는 이러한 변수 N의 크기가 전체 행수(도 7의 예에서 12)보다 커지는지 판단하여 전체 행수보다 작거나 같은 경우(S804에서 N), 각 행별로 각 패치들의 화소수를 카운트할 수 있다.The
처리부(430)는 변수 N이 전체 행수보다 작거나 같은 경우(S804에서 N), 변수 N의 크기를 증가시키고, 스캔하는 열을 결정하기 위한 변수 M을 0으로 설정하며, 제2변수를 초기화시킨다(S806).If the variable N is smaller than or equal to the total number of rows (N in S804), the
처리부(430)는 이러한 변수 M의 크기가 전체 열수(도 7의 예에서 16)보다 커지는지 판단하여 전체 열수보다 작거나 같은 경우(S808에서 N), 변수 M의 크기를 증가시킨다(S810).The
변수 N과 M을 통해 스캔하는 행과 열이 결정되면, 처리부(430)는 해당 화소에 태그된 라벨과 이전 화소에 태그된 라벨이 일치하는지 확인한다(S812). 여기서 이전 화소는 같은 라인에 인접한 화소를 의미한다.When a row and a column to be scanned through the variables N and M are determined, the
처리부(430)는 해당 화소와 이전 화소의 라벨이 일치하는 경우(S812에서 Y), 제2변수를 증가시키고(S814), 라벨이 일치하지 않는 경우(S812에서 N), 제2변수를 초기화한다(S816).If the label of the pixel matches the label of the previous pixel (Y in S812), the
S812 단계에서 해당 화소에 라벨이 없는 경우에도, 처리부(430)는 제2변수를 초기화할 수 있다(S816).In step S812, the
처리부(430)는 제2변수를 초기화할 때, 제2변수 최대값을 별도로 저장할 수 있다(S816).When initializing the second variable, the
S814 단계 혹은 S816 단계가 수행된 후에는 다시 S808 단계가 수행되는데, 이러한 순환 과정을 거쳐 전체 열에 대해 스캔이 종료되면 M의 크기가 전체 열수보다 커지게 된다. 이때, 처리부(430)는 S808 단계에서 M의 크기가 전체 열수보다 큰 것을 확인하고(S808에서 Y), S818 단계를 수행한다.After step S814 or step S816, step S808 is performed again. If the scan is completed for all the columns through the circulation process, the size of M becomes larger than the total number of columns. At this time, the
처리부(430)는 제2변수 혹은 제2변수의 최대값이 제1기준값 이상인 경우(S818에서 Y), 해당 패치의 제1변수를 증가시킨다(S820).If the maximum value of the second variable or the second variable is equal to or greater than the first reference value (Y in S818), the
S818 단계에서 N일 경우, 혹은 S820 단계가 수행된 후에 처리부(430)는 다시 S804 단계를 수행하여 전체 행에 대한 스캔을 수행한다.If N in step S818 or step S820 is performed, the
전체 행에 대한 스캔을 수행하면 N의 크기가 전체 행수보다 커지게 된다. 이때, 처리부(430)는 S804 단계에서 N의 크기가 전체 행수보다 큰 것을 확인하고(S804에서 Y), S822 단계를 수행한다.If the scan is performed for the entire row, the size of N becomes larger than the total number of rows. At this time, the
이때, 처리부(430)는 각 패치에 할당된 제1변수가 제2기준값 이상인 경우(S822에서 Y), 해당 패치를 라지 오브젝트로 결정하고 그렇지 않은 경우, 프로세스를 종료한다.At this time, if the first variable allocated to each patch is equal to or larger than the second reference value (Y in S822), the
도 8의 흐름도에서 S812 단계에서 처리부(430)는 스캔하고 있는 화소의 라벨과 이전 화소의 라벨이 일치하는지 확인하고 일치하는 경우에만 제2변수를 증가시키게 되는데, 이렇게 할 경우 처리부(430)는 각 패치별로 연속된 화소수의 최대값이 제1기준값 이상인 라인의 개수를 제1변수로 카운트하게 된다. 예를 들어, 한 라인에 대해 총 4개의 화소들이 있고, 이러한 화소들이 두 개씩만 연속이라면 도 8의 흐름도에 따른 실시예에서는 해당 라인의 스캔과정에서 제1변수가 증가되지 않는다.8, the
연속된 화소수가 아닌 각 라인의 패치별 전체 화소수를 기준으로 제1기준값과 비교하고자 한다면, 도 8의 흐름도에서 처리부(430)는 S812 단계에서 라벨의 일치 여부를 판단하지 않고 각 화소에 태그된 라벨을 검사하고 해당 라벨에 대응되는 패치의 제2변수를 증가시키는 방법을 적용시킬 수 있다. 이 경우, 제2변수를 리셋시키는 단계(S816)는 제거될 수 있다.In order to compare the total number of pixels of each line of each line with the first reference value, the
한편, 처리부(430)는 열방향으로 터치이미지를 스캔할 수도 있다.Meanwhile, the
도 9는 열방향으로 터치이미지의 전체 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.9 is a diagram for explaining an example of determining a large object while scanning the entire area of the touch image in the column direction.
도 9를 참조하면, 처리부(430)는 터치이미지의 전체 영역을 래스터 주사(raster scan)하듯이 첫번째 열(X1)부터 마지막 열(X16)까지 열방향으로 순차적으로 스캔(V-SCAN)하면서 복수의 패치 중 라지 오브젝트에 해당되는 패치를 식별할 수 있다.Referring to FIG. 9, the
도 9를 참조하면, 처리부(430)는 제1기준값으로 3을 가지고 있으면서 3 이상의 화소를 가지고 있는 X10, X11, X12, X13 열을 스캔하면서 제1패치(620)에 대한 라인수를 증가시키게 된다.Referring to FIG. 9, the
처리부(430)는 터치이미지의 전체 영역에 대한 스캔이 완료된 후 제1패치(620)에 대해 카운트된 라인수(도 9의 예시에서는 4)가 제2기준값(예를 들어, 5)보다 크면 제1패치(620)를 라지 오브젝트로 결정할 수 있고, 작으면 라지 오브젝트로 결정하지 않을 수 있다.If the number of lines counted for the first patch 620 (4 in the example in FIG. 9) is greater than the second reference value (for example, 5) after the scan for the entire area of the touch image is completed, 1
한편, 도 7과 도 9의 실시예들에 따른 제1패치(610)의 라인수를 비교해 보면, 도 7의 실시예에서 제1패치(610)의 제1기준값 이상인 라인수는 6인데 반해, 도 9의 실시예에서 제2패치(610)의 제1기준값 이상인 라인수는 4이다. 이에 따라, 제2기준값이 5인 경우, 도 7의 실시예에서는 제1패치(610)가 라지 오브젝트로 결정될 수 있고, 도 9의 실시예에서는 제1패치(610)가 라지 오브젝트로 결정되지 않을 수 있다.7 and FIG. 9, the number of lines of the
처리부(430)는 라지 오브젝트 판단의 정확도를 높이기 위해 행방향 및 열방향 각각에 대해 각 패치들의 라지 오브젝트 여부를 결정할 수 있다. 이 경우, 어느 한 방향에서 라지 오브젝트로 결정된 패치는 최종적으로 라지 오브젝트로 결정될 수 있다.The
다른 한편으로 처리부(430)는 행방향 및 열방향 각각에 대해 각 패치들의 제1기준값 이상인 라인수를 카운트하고 각각의 결과를 평균된 값으로 라지 오브젝트 여부를 결정할 수도 있다. 예를 들어, 도 7 및 도 9의 실시예에서 제1패치(610)의 제1기준값 이상인 라인수의 평균값은 5가 되는데, 이러한 평균값을 제2기준값과 비교하여 라지 오브젝트 여부를 결정할 수도 있다.On the other hand, the
도 7 내지 도 9를 참조하여, 처리부(430)가 터치이미지의 전체 영역을 스캔하면서 각 패치들에 대해 라지 오브젝트 여부를 결정하는 실시예에 대해 설명하였는데, 처리부(430)는 터치이미지의 일부 영역만을 스캔하여 특정 패치의 라지 오브젝트 여부를 결정할 수 있다. 처리부(430)가 터치이미지의 일부 영역만을 스캔하여 특정 패치의 라지 오브젝트 여부를 결정하는 실시예를 도 10을 참조하여 설명한다.7 to 9, the description has been given of the embodiment in which the
도 10은 터치이미지의 일부 영역을 스캔하면서 라지 오브젝트를 결정하는 예시를 설명하기 위한 도면이다.10 is a diagram for explaining an example of determining a large object while scanning a partial area of a touch image.
도 10을 참조하면, 제1패치(610)의 최외곽 라인은 X7, X13, Y4 및 Y11 이다. 그리고, 제2패치(620)의 최외곽 라인은 X3 및 Y3 이다.Referring to FIG. 10, the outermost lines of the
터치인식장치(120)가 각 패치의 최외곽 라인들을 파악하게 되면, 터치인식장치(120)는 해당 패치의 최외곽 라인들의 내부영역만 스캔함으로써 해당 패치의 라지 오브젝트 여부를 결정할 수 있다.When the
예를 들어, 터치인식장치(120)는 제1패치(610)에 대하여 최외곽 라인들을 X7, X13, Y4 및 Y11로 파악하고 이러한 최외곽 라인들로 구성되는 제1내부영역(1010)만 스캔하면서 제1패치(610)의 라지 오브젝트 여부를 결정할 수 있다. 이러한 예시에서 하나의 패치에 대해서만 라지 오브젝트 여부를 결정함으로 제1변수 및 제2변수를 각각 하나만 사용해도 된다. 이러한 실시예에 따르면 제1변수 및 제2변수를 하나만 사용함으로써 메모리를 효율적으로 사용할 수 있게 되는 장점이 있다.For example, the
한편, 터치인식장치(120)는 각 패치의 최외곽 라인들을 파악하여 해당 패치의 최외곽 라인들의 내부영역 크기를 확인할 수 있다. 예를 들어, 도 10의 예시에서 제1패치(610)에 대하여 최외곽 라인들의 내부영역 크기는 넓이 기준으로 56이 되고, 제2패치(620)에 대하여 최외곽 라인들의 내부영역 크기는 넓이 기준으로 1이 된다. 내부영역 크기는 넓이 기준으로 확인할 수도 있고 폭 기준으로 확인할 수도 있는데, 예를 들어, 도 10의 예시에서 행방향 기준으로 제1패치(610)는 X7부터 X13에 이르는 수평폭이 7이 되고, 제2패치(620)는 X3 하나만 있음으로 수평폭이 1이 된다.On the other hand, the
터치인식장치(120)는 각 패치들에 대하여 최외곽 라인들의 내부영역 크기를 확인하고 이러한 각 패치들의 내부영역 크기가 일정값 이상인 패치들에 대해서만 라지 오브젝트 여부를 결정할 수 있다. 예를 들어, 넓이 기준으로 내부영역 크기가 10 이상인 패치들만 스캔한다고 하면, 도 10의 예시에서 터치인식장치(120)는 제1패치(610)만 스캔할 수 있다. 다른 예로서, 수평폭 기준으로 내부영역 크기가 3이상인 패치들만 스캔한다고 하면, 도 10의 예시에서 터치인식장치(120)는 제1패치(610)만 스캔할 수 있다. 터치인식장치(120)가 실질적으로 행방향으로 화소수가 제1기준값 이상인 라인들만 카운트한다고 할 때, 내부영역의 수평폭이 제1기준값보다 작은 패치들은 화소수가 제1기준값 이상인 라인들이 없기 때문에 스캔을 하지 않을 수 있다.The
라지 오브젝트로 결정된 패치들은 여러 가지 용도로 활용될 수 있다.Patches determined as large objects can be used for various purposes.
펜을 사용하여 사용자 조작을 입력하는 경우 통상적으로 라지 오브젝트는 의도되지 않은 터치일 가능성이 높다. 이에 따라, 좌표생성부(440)는 라지 오브젝트를 제거하고 나머지 터치들에 대해서만 좌표를 생성하여 호스트(230)로 전송할 수 있다.When a pen is used to input a user operation, a large object is likely to be an unintended touch. Accordingly, the coordinate
반면에, 손바닥을 이용한 호버링(hovering) 터치를 인식하는 경우, 라지 오브젝트가 의도된 터치일 가능성이 높다. 이에 따라, 좌표생성부(440)는 라지 오브젝트에 대해 좌표를 생성하여 호스트(230)로 전송할 수 있다.On the other hand, in the case of recognizing the hovering touch using the palm, it is highly likely that the large object is the intended touch. Accordingly, the coordinate
한편, 라지 오브젝트는 펜터치의 위치를 결정하는 용도로 활용될 수 있다.On the other hand, the large object can be utilized for determining the position of the pen touch.
도 11은 라지 오브젝트를 이용하여 펜터치를 인식하는 예시를 설명하기 위한 도면이다.11 is a diagram for explaining an example of recognizing a pen touch using a large object.
도 11을 참조하면, 처리부(430)에 의해 제1패치(610)는 라지 오브젝트로 결정되고 제2패치(620) 및 제3패치(1130)는 라지 오브젝트로 결정되지 않거나 스몰 오브젝트로 결정될 수 있다. 이때, 펜터치 조작이 인식되고 있다면 제2패치(620)가 펜터치 위치인지 제3패치(1130)가 펜터치 위치인지 문제된다.11, the
좌표생성부(440)는 라지 오브젝트로 결정된 제1패치(610)로부터 최장거리에 있는 패치를 팬터치에 의한 패치로 결정할 수 있다. 예를 들어, 도 11에서 제1패치(610)와 제2패치(620)와의 거리가 제1패치(610)와 제3패치(1130)보다 길기 때문에 좌표생성부(440)는 라지 오브젝트로 결정된 제1패치(610)로부터 최장거리에 위치하는 제2패치(620)를 펜터치에 대응되는 패치로 식별할 수 있다. 이러한 방법은 일반적으로 라지 오브젝트 근처에는 의도되지 않은 손가락 터치 혹은 근접 오브젝트에 의한 잔상이 나타나고 원거리에 펜터치가 나타나는 현상을 반영한 것으로 펜터치의 위치를 결정하는 합리적이고 효율적인 방법이 될 수 있다.The coordinate generating
앞선 설명에서, 복수의 패치에 대해서 화소수가 제1기준값 이상인 라인의 개수를 카운트하고 카운트된 값이 제2기준값 이상인 패치들을 라지 오브젝트로 결정하는 실시예들에 대해 설명하였다.In the foregoing description, the embodiments have been described in which the number of lines having the number of pixels equal to or larger than the first reference value is counted for a plurality of patches, and the patches having the counted value equal to or larger than the second reference value are determined as large objects.
이러한 실시예들에 따르면, 일정 폭 이상을 가지면서 일정 높이(제2기준값) 이상을 가지는 패치를 손쉽게 식별해 낼 수 있게 된다. 라지 오브젝트는 일정한 넓이를 가지고 있다는 측면에서 일정 폭과 일정 높이를 고려하는 이러한 방식은 정확도가 높은 방식이다. 또한 이러한 실시예들에 따르면, 터치인식장치(120)가 일정폭 이상의 라인들을 단순 카운트함으로써 라지 오브젝트 여부를 판단할 수 있는데, 이러한 측면에서 이러한 방식은 메모리와 프로세서를 효율적으로 사용하게 한다.According to these embodiments, a patch having a predetermined height or more (a second reference value) or more can be easily identified. This method, which considers a fixed width and a constant height in terms of having a certain width, is a highly accurate method. According to these embodiments, the
라지 오브젝트는 터치인식장치(120)에서 다양하게 활용될 수 있다. 펜터치와 같이 스몰 오브젝트를 터치로 인식해야 하는 상황에서 터치인식장치(120)는 라지 오브젝트로 결정된 패치들을 제외하고 나머지 패치들만에 대해 좌표를 생성하고 해당 좌표를 호스트(230)로 송신할 수 있다. 반면에 호버링과 같이 라지 오브젝트를 이용하여 사용자 조작이 이루어지는 상황에서 터치인식장치(120)는 라지 오브젝트로 결정된 패치들에 대해 좌표를 생성하여 해당 좌표를 호스트(230)로 송신할 수 있다. 또한, 터치인식장치(120)는 이러한 용도 이외에 라지 오브젝트와 스몰 오브젝트 사이의 거리를 이용하여 펜터치에 대응되는 패치를 보다 정확하게 식별할 수 있다.The large object can be variously utilized in the
이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Generally used terms such as predefined terms should be interpreted to be consistent with the contextual meanings of the related art and are not to be construed as ideal or overly formal meanings unless explicitly defined in the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
Claims (11)
상기 터치이미지로부터 적어도 하나의 패치를 식별하는 식별부; 및
상기 터치이미지를 스캔하면서 각 패치별로 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하고 상기 제1변수가 제2기준값 이상인 패치를 라지 오브젝트로 결정하는 처리부
를 포함하는 터치인식장치.An image generating unit for generating a touch image composed of a plurality of row lines and a plurality of column lines from sensing signals for objects in proximity to or touching the touch panel;
An identification unit for identifying at least one patch from the touch image; And
A processing unit for counting the number of lines having a pixel number greater than or equal to a first reference value as a first variable and determining a patch having a first variable equal to or greater than a second reference value as a large object,
And a touch recognition device.
상기 처리부는,
각 패치별로 연속된 화소수의 최대값이 제1기준값 이상인 라인의 개수를 제1변수로 카운트하는 것을 특징으로 하는 터치인식장치.The method according to claim 1,
Wherein,
And counts the number of lines whose maximum value of the number of consecutive pixels per each patch is equal to or greater than the first reference value as the first variable.
상기 식별부는,
각 패치에 라벨들을 부여하고 각 패치의 화소에 상기 라벨들을 태그하는 것을 특징으로 하는 터치인식장치.The method according to claim 1,
Wherein,
Wherein labels are assigned to each patch and the labels are tagged to pixels of each patch.
상기 처리부는,
제1화소에 태그된 라벨에 대응되는 제1패치로 제2변수를 할당하고 상기 제1화소의 다음으로 스캔되는 제2화소의 라벨과 상기 제1화소의 라벨이 동일하면 상기 제2변수를 증가시키고 상기 제2변수가 상기 제1기준값 이상이면 상기 제1패치에 대응되는 제1변수를 증가시키는 것을 특징으로 하는 터치인식장치.The method of claim 3,
Wherein,
Assigning a second variable to a first patch corresponding to a label tagged to the first pixel, and if the label of the second pixel scanned next to the first pixel is the same as the label of the first pixel, And increases the first variable corresponding to the first patch if the second variable is equal to or greater than the first reference value.
상기 제1화소의 라벨과 상기 제2화소의 라벨이 상이하면 상기 제2변수를 리셋하는 것을 특징으로 하는 터치인식장치.5. The method of claim 4,
And resets the second variable if the label of the first pixel is different from the label of the second pixel.
상기 처리부는,
행방향 및 열방향 각각에 대해 각 패치들의 라지 오브젝트 여부를 결정하는 것을 특징으로 하는 터치인식장치.The method according to claim 1,
Wherein,
Whether or not each of the patches is a large object for each of the row direction and the column direction.
상기 이미지생성부는,
두 센싱신호들의 차이값으로 생성되는 로우 데이터를 라인별로 적산하여 상기 터치이미지를 생성하는 것을 특징으로 하는 터치인식장치.The method according to claim 1,
The image generation unit may include:
And generates the touch image by integrating the row data generated by the difference value of the two sensing signals on a line by line basis.
라지 오브젝트로 결정된 패치를 제외한 나머지 패치에 대해 좌표값을 생성하고 호스트로 전송하는 좌표생성부를 더 포함하는 것을 특징으로 하는 터치인식장치.The method according to claim 1,
And a coordinate generator for generating coordinate values for the remaining patches other than the patch determined as the large object and transmitting the coordinate values to the host.
상기 센싱신호들을 처리하여 다수의 행라인들과 다수의 열라인들로 구성되는 터치이미지를 생성하는 단계;
상기 터치이미지로부터 적어도 하나의 패치를 식별하는 단계;
상기 적어도 하나의 패치 중 제1패치에 대해 화소수가 제1기준값 이상인 라인의 개수를 제1변수로 카운트하는 단계; 및
상기 제1변수가 제2기준값 이상인 경우 상기 제1패치를 라지 오브젝트로 결정하는 단계
를 포함하는 터치인식방법.Receiving sensing signals of a touch panel for objects in proximity or contact;
Processing the sensing signals to generate a touch image comprising a plurality of row lines and a plurality of column lines;
Identifying at least one patch from the touch image;
Counting the number of lines whose number of pixels is equal to or greater than a first reference value with respect to a first patch of the at least one patch as a first variable; And
Determining the first patch as a large object if the first variable is equal to or greater than a second reference value
And a touch recognition method.
라지 오브젝트로 결정된 제1패치와 라지 오브젝트로 결정되지 않은 제2패치 사이의 거리가 일정값 이상이면 상기 제2패치를 펜에 의한 터치로 인식하는 것을 특징으로 하는 터치인식방법.10. The method of claim 9,
Wherein when the distance between the first patch determined as a large object and the second patch determined as a large object is a predetermined value or more, the second patch is recognized as a touch by a pen.
상기 제1패치가 라지 오브젝트로 결정되면 상기 제1패치로부터 최장거리에 위치하는 패치를 펜터치에 의한 패치로 결정하는 단계를 더 포함하는 것을 특징으로 하는 터치인식방법.10. The method of claim 9,
Further comprising the step of, when the first patch is determined as a large object, determining a patch located at the longest distance from the first patch as a patch by a pen touch.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150054189A KR102335556B1 (en) | 2015-04-17 | 2015-04-17 | Touch sensing method and apparatus for identifying large object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150054189A KR102335556B1 (en) | 2015-04-17 | 2015-04-17 | Touch sensing method and apparatus for identifying large object |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160123702A true KR20160123702A (en) | 2016-10-26 |
KR102335556B1 KR102335556B1 (en) | 2021-12-07 |
Family
ID=57251556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150054189A KR102335556B1 (en) | 2015-04-17 | 2015-04-17 | Touch sensing method and apparatus for identifying large object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102335556B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220110037A (en) * | 2021-01-29 | 2022-08-05 | 하이맥스 테크놀로지스 리미티드 | Touch signal processing method and related touch device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100113792A (en) * | 2009-04-14 | 2010-10-22 | 에이디반도체(주) | Apparatus and method for recognition of pen touch for multi-touch screen |
KR20120081733A (en) * | 2011-01-12 | 2012-07-20 | 한밭대학교 산학협력단 | Apparatus and method for classifying contact-media on touchscreen |
KR101180865B1 (en) * | 2011-05-25 | 2012-09-07 | (주)나노티에스 | Method for detecting a touch pen coordinate and system for performing the method |
KR20140104737A (en) * | 2013-02-21 | 2014-08-29 | 주식회사 실리콘웍스 | Circuit and method for controling of differential touch sensing system |
-
2015
- 2015-04-17 KR KR1020150054189A patent/KR102335556B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100113792A (en) * | 2009-04-14 | 2010-10-22 | 에이디반도체(주) | Apparatus and method for recognition of pen touch for multi-touch screen |
KR20120081733A (en) * | 2011-01-12 | 2012-07-20 | 한밭대학교 산학협력단 | Apparatus and method for classifying contact-media on touchscreen |
KR101180865B1 (en) * | 2011-05-25 | 2012-09-07 | (주)나노티에스 | Method for detecting a touch pen coordinate and system for performing the method |
KR20140104737A (en) * | 2013-02-21 | 2014-08-29 | 주식회사 실리콘웍스 | Circuit and method for controling of differential touch sensing system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220110037A (en) * | 2021-01-29 | 2022-08-05 | 하이맥스 테크놀로지스 리미티드 | Touch signal processing method and related touch device |
Also Published As
Publication number | Publication date |
---|---|
KR102335556B1 (en) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10909916B2 (en) | OLED array substrate, OLED display panel, pixel circuit, driving method and method for fingerprint recognition using OLED display panel | |
US9569046B2 (en) | Touch controller including a plurality of detectors to detect electrical change, electronic device and display device including touch controller, and touch sensing method | |
US9880688B2 (en) | Active matrix capacitive sensor for common-mode cancellation | |
US9684400B2 (en) | Capacitive sensing detection method for an active pixel matrix | |
US10430633B2 (en) | Pixel architecture and driving scheme for biometric sensing | |
US10540028B2 (en) | Touch detecting apparatus and touch detecting method using pixel or pixels in display devices | |
KR101429923B1 (en) | Method for labeling touch region and apparatus for driving touch sensor using the same | |
EP3201741A1 (en) | Integrated self-capacitive touch display | |
US10216972B2 (en) | Pixel architecture and driving scheme for biometric sensing | |
US10394391B2 (en) | System and method for reducing display artifacts | |
US11221701B2 (en) | Touch display device and driving method with orthogonal touch driving signals | |
JP2015194987A (en) | Input device and display device | |
US9304638B2 (en) | Display device with a touch panel for determining a normal touch and driving method thereof | |
JP2018045283A (en) | Touch detection function-attached display device and control method | |
WO2020224309A1 (en) | Electronic apparatus having fingerprint sensing function | |
JP5475498B2 (en) | Display device with touch panel | |
CN105807984B (en) | Touch recognition method for display device and display device using the same | |
KR101970558B1 (en) | Apparatus for driving touch sensor | |
KR20160123704A (en) | Touch system and touch ic for sharing data, and control method thereof | |
KR20160123702A (en) | Touch sensing method and apparatus for identifying large object | |
US11269448B2 (en) | Touch sensor, display device, and method of driving a touch sensor | |
JP2019016154A (en) | Display device | |
KR20170142807A (en) | Integration dispaly apparatus with display and touch function | |
KR20230102758A (en) | Touch sensing apparatus and the method of sensing touch by touch sensing apparatus | |
KR20230090827A (en) | Touch sensing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |