KR101137003B1 - Method for operating touch of touch screen having camera - Google Patents
Method for operating touch of touch screen having camera Download PDFInfo
- Publication number
- KR101137003B1 KR101137003B1 KR1020100106709A KR20100106709A KR101137003B1 KR 101137003 B1 KR101137003 B1 KR 101137003B1 KR 1020100106709 A KR1020100106709 A KR 1020100106709A KR 20100106709 A KR20100106709 A KR 20100106709A KR 101137003 B1 KR101137003 B1 KR 101137003B1
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- touch screen
- camera
- point
- camera sensors
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 카메라 센서를 장착한 터치 스크린의 터치 동작 방법에 관한 것으로서, 구체적으로는 다수개의 카메라 센서를 구비하여 터치 스크린의 크기에 관계없이 터치점을 정확히 판별할 수 있도록 한 카메라 센서를 장착한 터치 스크린의 터치 동작 방법에 관한 것이다.The present invention relates to a touch operation method of a touch screen equipped with a camera sensor. Specifically, a touch provided with a camera sensor provided with a plurality of camera sensors to accurately determine a touch point regardless of the size of the touch screen. It relates to a touch operation method of the screen.
일반적으로 터치스크린 혹은 터치 디스플레이라고 불리는 터치패널은 각종 디스플레이를 이용하는 정보통신기기와 사용자간의 인터페이스를 구성하는 것으로, 일반적으로 터치 모듈로 구성된 표시장치상에 부착되어 손가락이나 펜으로 터치한 터치 물체와 접촉되는 터치 화면부에서 하드웨어적으로 구성된 표시소자가 전기적인 특성이 변해 터치위치를 감지하는 유저 인터페이스(UI)의 하나로, 기기와 인터페이스할 수 있는 입력장치이다. A touch panel, commonly called a touch screen or a touch display, constitutes an interface between an information communication device and a user using various displays, and is generally attached to a display device composed of a touch module to touch a touch object touched by a finger or a pen. The display device configured in hardware in the touch screen unit is one of a user interface (UI) for detecting a touch position by changing electrical characteristics, and is an input device capable of interfacing with a device.
터치스크린은 디스플레이에 표시되어 있는 버튼을 손가락으로 접촉하는 것만으로 컴퓨터를 대화적, 직감적으로 조작함으로써 남녀노소 누구나 쉽게 사용할 수 있는 입력장치이기 때문에 현재 모바일 휴대용 단말기, PDA, LCD, CRT, 은행이 나 관공서, 각종 의료장비, 관광 및 주요기관의 안내, 교통안내 등 많은 분야에서 적용되고 있다.The touch screen is an input device that can be easily used by both men and women by interactively and intuitively operating the computer by simply touching the buttons on the display with their fingers. It is applied in many fields such as government offices, various medical equipment, tourism and major institutions, and traffic guidance.
터치스크린을 구성하는 방식에는 정전용량 방식, 적외선 매트릭스 방식, 카메라 방식 및 저항막 방식 등이 있다. The touch screen may include a capacitive type, an infrared matrix type, a camera type, and a resistive type.
그 중, 카메라 방식은 화면의 모서리에 장착되어 있는 카메라(적외선 LED가 장착되고 이미지 센서를 포함)가 화면의 전면을 관찰하면서 화면에 접촉되는 물체를 확인하여 물체의 위치정보를 알아낸다. 일반적으로 2개 이상의 카메라를 쓰며, 2개의 위치각도정보를 조합하여 물체의 위치정보를 알아낸다.Among them, the camera method finds the location information of the object by checking the object contacting the screen while the camera (infrared LED is mounted and including the image sensor) mounted on the corner of the screen observes the front of the screen. In general, two or more cameras are used, and the location information of the object is determined by combining two location angle information.
이러한 카메라 방식이 적용된 종래의 터치 스크린 시스템에 대해서 도면을 참조하여 설명하도록 한다.A conventional touch screen system to which the camera method is applied will be described with reference to the drawings.
도 1은 종래의 카메라 방식이 적용된 터치 스크린 시스템을 설명하기 위한 예시도이다.1 is an exemplary view for explaining a touch screen system to which a conventional camera method is applied.
도 1을 참조하면, 종래의 터치 스크린 시스템은 스크린 어느 한 면에 카메라 센서를 장착하고 나머지 세 면에 재귀 반사시트를 부착하였다. 이와 같은 형태일 때의 문제점은 터치 물체가 스크린에 닿았을 때의 빛을 재귀 반사시트가 반사하고 반사된 빛을 카메라 센서가 받아들여 터치했다는 것을 알게 되는데 터치 물체가 닿은 터치 점이 카메라 센서와 거리가 멀어질수록 반사되는 빛이 약해져 터치 판별하기에 어려운 문제점이 있었다.Referring to FIG. 1, the conventional touch screen system has a camera sensor mounted on one side of a screen and a retroreflective sheet attached to the other three sides. The problem with this form is that the retroreflective sheet reflects the light when the touch object touches the screen and the camera sensor accepts and reflects the reflected light.The touch point touched by the touch object is far from the camera sensor. The farther away the light reflected, there was a problem that is difficult to determine the touch.
즉, 이론적으로 한 개의 카메라가 터치 스크린의 상면의 모서리 부분에 각각 설치되어 대각선 방향의 터치 스크린 하면의 모서리 부분까지 볼 수 있지만, 실제로 카메라 센서가 2대 일 때는 카메라 한 대당 볼 수 있는 시야에 한 계가 있어 가장 자리인 하면 모서리 부분에 버터플라이 구간이 생기게 되는 문제점이 있다.That is, in theory, one camera can be installed at each corner of the upper surface of the touch screen and can be seen up to the corner of the lower surface of the touch screen in a diagonal direction.However, when there are two camera sensors, one camera can be viewed per view. If there is a system edge, there is a problem that the butterfly section is generated in the corner.
본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 다수개의 카메라 센서를 구비하여 터치 스크린의 크기에 관계없이 터치점을 정확히 판별할 수 있도록 한 카메라 센서를 장착한 터치 스크린의 터치 동작 방법을 제공함에 그 목적이 있다.The present invention has been made in view of the above problems, and provides a touch operation method of a touch screen equipped with a camera sensor provided with a plurality of camera sensors to accurately determine the touch point regardless of the size of the touch screen. Has its purpose.
본 발명의 다른 목적은 일체화 시킨 카메라의 구성으로 인해 버터플라이 영역을 커버하여 터치 영역을 넓힐 수 있도록 한 카메라 센서를 장착한 터치 스크린의 터치 동작 방법을 제공함에 있다.Another object of the present invention is to provide a touch operation method of a touch screen equipped with a camera sensor to cover the butterfly area and widen the touch area due to the integrated camera configuration.
본 발명의 또 다른 목적은 카메라 센서의 동작방법으로 카메라 센서가 보는 각도에 따른 터치 점의 판별력을 향상시킬 수 있도록 한 카메라 센서를 장착한 터치 스크린의 터치 동작 방법을 제공함에 있다.It is still another object of the present invention to provide a method of operating a touch screen of a touch screen equipped with a camera sensor, which can improve the discriminating power of a touch point according to an angle of view of the camera sensor.
본 발명의 또 다른 목적은 다수개의 카메라들을 터치 스크린의 어느 한 면에 일체화시키고 터치 카메라 센서의 동작에 따른 터치 구현과 카메라 센서를 위치한 형태에 따라 버터플라이 영역과 정확한 좌표 정보를 추출하기 위해 보정 알고리즘을 적용하여 불분명한 터치 점의 정보를 획득할 수 있도록 한 카메라 센서를 장착한 터치 스크린의 터치 동작 방법을 제공함에 있다.Still another object of the present invention is to integrate a plurality of cameras on one side of the touch screen, and to correct the touch area according to the operation of the touch camera sensor and to extract the butterfly area and accurate coordinate information according to the position of the camera sensor The present invention provides a touch operation method of a touch screen equipped with a camera sensor to obtain information of an unclear touch point.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.
상기와 같은 목적을 달성하기 위한 본 발명의 일면에 따른 카메라 센서를 장착한 터치 스크린의 터치 동작 방법은, 다수의 카메라 센서를 구비하여 터치 스크린에 터치되는 터치 점을 인식하는 터치 스크린 시스템의 터치 동작 방법에 있어서, 터치 정보를 받아들이기 위해 초기 설정을 수행하는 제1 단계; 카메라 센서를 통해 이미지 스캐닝을 통해 터치를 확인하고, 확인된 터치 지점에서 근접해 있는 카메라 센서를 통해 이미지 스캐닝을 수행하는 제2 단계; 및 상기 이미지 스캐닝에 의해 획득되는 터치 점을 개수를 판단하고, 그 판단결과 멀티(복수개)의 터치 점이면 흑백이미지를 비교하여 허상을 제거한 후 좌표를 보정하는 Linear interpolation을 이용한 연산을 통해 터치 점의 좌표 점을 추출하고, 판단결과 싱글(한개)의 터치 점이면 상기 Linear interpolation을 이용한 연산을 통해 터치 점의 좌표 점을 추출하는 제3 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a touch operation method of a touch screen equipped with a camera sensor, the touch operation of a touch screen system including a plurality of camera sensors to recognize a touch point touched on the touch screen. A method, comprising: a first step of performing initial setup to accept touch information; A second step of confirming a touch through image scanning through a camera sensor and performing image scanning through a camera sensor proximate to the identified touch point; And determining the number of touch points acquired by the image scanning, and if the result of the determination is that the touch points are multi- (multiple), comparing the black and white images to remove the virtual image and then correcting the coordinates. And a third step of extracting the coordinate point and extracting the coordinate point of the touch point through a calculation using the linear interpolation if the single touch point is determined.
바람직하게, 상기 제1 단계는, 카메라 센서의 배치로 인해 터치 스크린에서 터치 영역이 겹쳐져 일어나는 오차를 보정하기 위한 기준점을 결정하는 단계; 상기 기준점을 기준으로 터치 영역이 겹쳐지는 부분의 외곽정보를 결정하는 단계; 및 상기 결정된 외곽정보와 터치된 터치 점과의 대응관계를 결정한 후, 그 결졍된 대응관계에 의해 각 터치 점에 대해 어파인(Affine)변환을 수행하여 터치 영역이 겹쳐지는 부분에 찍힌 터치 점을 보정하는 단계를 포함하는 것을 특징으로 한다.Preferably, the first step may include determining a reference point for correcting an error caused by overlapping of touch areas in the touch screen due to the arrangement of the camera sensor; Determining outline information of a portion where a touch area overlaps with respect to the reference point; And determining a correspondence relationship between the determined outline information and the touched touch point, and performing affine transformation on each touch point based on the determined correspondence to display a touch point on a portion where the touch area overlaps. Characterized in that it comprises a step of correcting.
바람직하게, 상기 제3 단계는, 다수의 보정 기준점을 선정하는 단계; 터치 지점의 실제(ideal) 좌표와 터치 스크린 시스템에서 연산된 좌표의 차이를 측정하여 미리 룩업 테이블에 저장하는 단계; 터치된 터치 지점의 실제 좌표와 연산된 좌표가 일치하는가를 판단하고, 판단결과 일치하지 않으면, 터치가 발생된 지점에 대해 좌표를 계산하고, 연산된 좌표 특정 개수의 보정 기준점을 찾은 후에 보정값을 연산하는 단계; 및 연산된 좌표에 보정값을 적용하여 정확한 좌표 점을 추출하는 단계를 포함하는 것을 특징으로 한다.Preferably, the third step includes the steps of selecting a plurality of correction reference points; Measuring a difference between an actual coordinate of the touch point and a coordinate calculated by the touch screen system and storing the difference in a lookup table in advance; It is determined whether the calculated coordinates of the touched point match the calculated coordinates, and if the result of the determination does not match, the coordinates are calculated for the point where the touch is generated, and the corrected value is found after finding a certain number of calculated reference points. Calculating; And extracting correct coordinate points by applying a correction value to the calculated coordinates.
바람직하게, 상기 터치 점의 좌표 점을 추출하는 제3 단계 이후에 연속 입력 유무를 판단하고, 판단결과 연속으로 입력되면 추출했던 좌표점을 저장한 후, 시키고 스크린 화면의 초기화와 저장된 좌표점을 알기 위해 수행된 정보들을 초기화한후 연속입력되는 터치를 입력받아 상기 제2 단계와 제3 단계를 통해 연속입력좌표 보정을 하며 좌표 추출연산을 수행한 후 좌표를 터치 스크린 화면에 표시하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, after the third step of extracting the coordinate point of the touch point, it is determined whether there is a continuous input, and if the determination result is continuously input, after storing the extracted coordinate point, the initialization of the screen screen and know the stored coordinate point The method further includes the steps of correcting the continuous input coordinates through the second and third steps after receiving the touch input continuously after initializing the performed information, and performing coordinate extraction and displaying the coordinates on the touch screen screen. Characterized in that.
바람직하게, 상기 다수의 카메라 센서는, 터치 스크린의 상면에 위치하고, 모서리에 각각 하나씩 위치하되, 3개의 카메라 센서인 경우에는 모서리에 위치한 카메라 센서 사이의 중간지점에 위치시키며, 4개의 카메라 센서인 경우에는 모서리에 위치한 카메라 센서 사이의 중간지점에 2개의 카메라 센서를 위치시키는 것을 특징으로 한다.Preferably, the plurality of camera sensors, located on the upper surface of the touch screen, each one located in the corner, in the case of three camera sensors in the middle point between the camera sensor located in the corner, four camera sensors It characterized in that the two camera sensors are positioned at the midpoint between the camera sensor located in the corner.
바람직하게, 상기 4개의 카메라 센서인 경우에는, 2개의 카메라 센서의 시야가 터치 스크린의 바닥면을 향하도록 함과 동시에 서로 마주보는 방향으로 장착하거나, 2개의 카메라 센서의 시야가 터치 스크린의 바닥면을 향하도록 함과 동시에 서로 대향하는 방향으로 장착하거나, 터치 스크린의 바닥면을 기준으로 수직의 시야를 갖을 수 있도록 2개의 카메라 센서를 장착하는 것 중 어느 하나를 적용하여 터치 스크린 시스템을 구성하는 것을 특징으로 한다.Preferably, in the case of the four camera sensors, the field of view of the two camera sensors to face the bottom surface of the touch screen and at the same time facing each other, or the field of view of the two camera sensors is the bottom surface of the touch screen The touch screen system by mounting the two camera sensors so as to face each other and to face each other or to have a vertical field of view with respect to the bottom surface of the touch screen. It features.
바람직하게, 상기 Linear interpolation은, 아래의 수학식 1과 같은 특성을 갖는 것을 특징으로 한다.Preferably, the linear interpolation is characterized by having the same characteristics as in
(수학식 1)(1)
여기서 f(xi,yi)는 보정각을 의미한다.
Here f (xi, yi) means the correction angle.
전술한 과제해결 수단에 의해 본 발명은 다수개의 카메라들을 터치 스크린의 어느 한 면에 일체화시키고 터치 카메라 센서의 동작에 따른 터치 구현과 카메라 센서를 위치한 형태에 따라 버터플라이 영역과 정확한 좌표 정보를 추출하기 위해 보정 알고리즘을 적용하여 불분명한 터치 점의 정보를 획득할 수 있도록 하는 효과가 있다.According to the above-mentioned problem solving means, the present invention integrates a plurality of cameras to one side of a touch screen and extracts butterfly area and accurate coordinate information according to the touch implementation and the position of the camera sensor according to the operation of the touch camera sensor. It is effective to obtain the information of the unclear touch point by applying a risk correction algorithm.
또한 터치 스크린의 크기에 관계없이 터치점을 정확히 판별할 수 있는 효과가 있다.
In addition, there is an effect that can accurately determine the touch point regardless of the size of the touch screen.
도 1은 종래의 카메라 방식이 적용된 터치 스크린 시스템을 설명하기 위한 예시도.
도 2는 본 발명의 실시예에 따라 카메라 센서를 장착한 터치 스크린의 터치 동작 방법이 적용되는 터치 스크린 시스템을 보인 예시도.
도 3은 본 발명의 실시예에 따라 터치 지점을 카메라 센서를 통해 감지하는 방법을 설명하기 위한 예시도.
도 4는 본 발명의 실시예에 따라 4개의 카메라 센서를 사용했을때의 카메라 센서의 동작을 설명하기 위한 예시도.
도 5는 본 발명의 실시예에 따라 카메라 센서 배치 방법에 따라 선긋기를 보인 예시도.
도 6은 본 발명의 실시예에 따라 터치 영역 구간이 겹치는 부분을 설명하기 위한 예시도.
도 7은 쉐이딩 현상을 설명하기 위한 예시도.
도 8은 본 발명의 실시예에 따라 좌표 보정 알고리즘에 따른 카메라 센서의 위치를 보인 예시도.
도 9는 본 발명의 실시예에 따라 터치 스크린의 전체 영역을 8*8로 나누어 정밀 측정을 하기 위한 형태를 보인 예시도.
도 10은 본 발명의 실시예에 따른 좌표 보정을 설명하기 위한 예시도.
도 11a 및 도 11b는 본 발명의 실시예에 따른 카메라 센서를 장착한 터치 스크린의 터치 동작 방법을 보인 흐름도.
도 12는 본 발명의 실시예에 따라 터치 영역의 겹쳐지는 영역의 터치점에 대해 설명하기 위한 예시도.
도 13은 본 발명의 실시예에 따라 어파인 기법을 이용한 겹쳐지는 부분의 보정 흐름도.1 is an exemplary view for explaining a touch screen system to which a conventional camera method is applied.
2 is an exemplary view illustrating a touch screen system to which a touch operation method of a touch screen equipped with a camera sensor is applied according to an exemplary embodiment of the present invention.
3 is an exemplary view for explaining a method of sensing a touch point through a camera sensor according to an embodiment of the present invention.
Figure 4 is an exemplary view for explaining the operation of the camera sensor when using the four camera sensors in accordance with an embodiment of the present invention.
5 is an exemplary view showing a line drawing according to a camera sensor arrangement method according to an embodiment of the present invention.
6 is an exemplary diagram for explaining a portion where a touch region section overlaps according to an exemplary embodiment of the present invention.
7 is an exemplary diagram for explaining a shading phenomenon.
8 is an exemplary view showing a position of a camera sensor according to a coordinate correction algorithm according to an embodiment of the present invention.
Figure 9 is an exemplary view showing a form for making a precise measurement by dividing the entire area of the touch screen by 8 * 8 according to an embodiment of the present invention.
10 is an exemplary view for explaining coordinate correction according to an embodiment of the present invention.
11A and 11B are flowcharts illustrating a touch operation method of a touch screen equipped with a camera sensor according to an exemplary embodiment of the present invention.
12 is an exemplary diagram for explaining touch points of overlapping regions of a touch region according to an exemplary embodiment of the present invention.
13 is a flowchart illustrating correction of overlapping portions using an affine technique in accordance with an embodiment of the present invention.
하기의 설명에서 본 발명의 카메라 센서를 장착한 터치 스크린의 터치 동작 방법의 특정 상세들이 본 발명의 보다 전반적인 이해를 제공하기 위해 나타나 있는데, 이들 특정 상세들 없이 또한 이들의 변형에 의해서도 본 발명이 용이하게 실시될 수 있다는 것은 이 기술분야에서 통상의 지식을 가진 자에게 자명할 것이다.In the following description, specific details of the touch operation method of the touch screen equipped with the camera sensor of the present invention are shown to provide a more general understanding of the present invention, and the present invention may be easily made without these specific details and by their modifications. It will be apparent to one of ordinary skill in the art that the present invention can be practiced in a timely manner.
하기의 설명에서 어파인 기법이란 카메라 센서의 배치로 인해 터치 영역이 겹치게 되는 부분을 하나의 터치 영역으로 사용하기 위해 터치 영역이 겹치게 된 외곽부분을 펴주는 것을 뜻하는 것으로, 터치 영역이 겹쳐진 외곽부분을 하나의 터치 영역으로 변환하기 위한 것을 의미하는 바로 사용할 것이다.In the following description, the affine technique refers to unfolding the outer portion where the touch regions overlap to use a portion where the touch regions overlap due to the arrangement of the camera sensors as a single touch region. We will use it immediately, which means to convert a to a single touch area.
이하, 본 발명에 따른 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명하되, 본 발명에 따른 동작 및 작용을 이해하는데 필요한 부분을 중심으로 설명한다.
Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail, focusing on the parts necessary to understand the operation and action according to the present invention.
도 2는 본 발명의 실시예에 따라 카메라 센서를 장착한 터치 스크린의 터치 동작 방법이 적용되는 터치 스크린 시스템을 보인 예시도이다.2 is an exemplary view illustrating a touch screen system to which a touch operating method of a touch screen equipped with a camera sensor is applied according to an exemplary embodiment of the present invention.
도 2를 참조하면, 3개와 4개의 카메라 센서를 장착한 형태를 보인 것으로 터치 스크린의 상면에 3개 혹은 4개의 카메라 센서를 구비하고, 나머지 2개의 측면과 바닥면에 재귀 반사 시트(Reflective Sheet)를 구비한다.Referring to FIG. 2, three and four camera sensors are mounted, and three or four camera sensors are provided on an upper surface of a touch screen, and a retroreflective sheet is provided on two remaining sides and a bottom surface. It is provided.
우선 4개의 카메라 센서를 구비하는 도 2의 (a) 내지 (c)에 대해서 설명하도록 한다. 이때 터치 스크린의 상단 모서리에는 각각 1개씩의 카메라 센서를 구비한다.First, FIGS. 2A to 2C having four camera sensors will be described. At this time, the upper edge of the touch screen is provided with one camera sensor.
도 2의 (a)는 터치 스크린의 중앙 상단에 위치하는 2개의 카메라 센서의 시야가 바닥면을 향하도록 함과 동시에 서로 마주보는 방향으로 장착한다.2 (a) is mounted in a direction facing each other while the field of view of the two camera sensors located on the top of the center of the touch screen toward the bottom surface.
도 2의 (b)는 터치 스크린의 중앙 상단에 위치하는 2개의 카메라 센서의 시야가 바닥면을 향하도록 함과 동시에 서로 대향하는 방향으로 장착한다.FIG. 2B shows the two camera sensors positioned at the top of the center of the touch screen facing the floor and are mounted in opposite directions.
도 2의 (c)는 터치 스크린의 중앙 상단에 위치하는 2개의 카메라 센서의 시야 방향은 터치 스크린의 바닥면을 기준으로 수직으로 이루어질 수 있도록 한다.FIG. 2 (c) shows that the viewing directions of two camera sensors positioned at the top of the center of the touch screen may be perpendicular to the bottom surface of the touch screen.
다음으로 3개의 카메라 센서를 구비하는 도 2의 (d)에 대해서 설명하면, 터치 스크린의 모서리에는 각각 1개씩의 카메라 센서를 구바하고, 각 모서리에 위치하는 카메라 센서 사이 즉, 중앙부분에 1개의 카메라 센서를 위치시킨다. 중앙부분에 위치하는 1개의 카메라 센서의 시야 방향은 바닥면을 기준으로 수직으로 이루어질 수 있도록 한다. Next, referring to FIG. 2D having three camera sensors, one camera sensor is used at each corner of the touch screen, and one camera sensor is disposed between the camera sensors positioned at each corner. Position the camera sensor. The direction of view of one camera sensor positioned at the center portion may be perpendicular to the bottom surface.
전술한 본 발명에서 다수의 카메라 센서를 장착한 형태는 도 2와 같은 여러 형태로 제안할 수 있다. 터치 스크린의 상면 중앙에 카메라 센서 시야가 아래쪽으로 향하도록 배치한 3개인 경우 그리고 4개를 배치한 경우를 제안한다. In the above-described present invention, a form in which a plurality of camera sensors are mounted may be proposed in various forms as shown in FIG. 2. In the center of the upper surface of the touch screen, three cases with the camera sensor facing downward and four cases are proposed.
본 발명에서는 터치 판별하지 못하는 영역을 완화시키기 위해 사용하는 카메라 센서에 의해 카메라 센서의 위치에 따라 카메라의 확대된 시야로 인한 터치 영역이 겹치게 되는 부분을 자연스럽게 이어 정확한 터치 판별력을 향상시키기 위해서이며, 카메라 센서 4개를 장착하는 방법도 있지만 3개를 장착하여 시야를 180도로 넓히는 방법도 있다. In the present invention is to improve the correct touch discriminating ability by naturally following the overlapping part of the touch area due to the enlarged field of view of the camera according to the position of the camera sensor by the camera sensor used to alleviate the area that the touch can not be detected. There are ways to mount four sensors, but you can also mount three to widen your field of view by 180 degrees.
4개의 카메라 센서를 배치하는 경우에는 가운데에 카메라 센서 2개를 추가한 것인데 상단 가운데에 센서의 시야가 아래쪽으로 향하도록 나란히 정 배열한 경우와 센서의 방향을 옆으로 틀어서 엇갈리게 배열한 경우 그리고 센서의 방향을 안쪽으로 틀어서 배열한 경우 이렇게 4가지의 형태를 제안한다. In the case of four camera sensors, two camera sensors are added in the center, and the sensor is arranged in the top center side by side with the field of view facing downward, and the sensor direction is staggered sideways, When the direction is arranged inwardly, four types are suggested.
즉, 이렇게 구성한 카메라 센서 배치 구성은 카메라 센서 2개보다 많은 다수의 카메라 센서를 터치 스크린의 상면에 정 배열 또는 엇갈리게 배치하여 정확히 터치 지점을 감지하기 위함이다. 또한 보조 카메라의 역할로 카메라 센서의 배치 그리고 배치에 따른 동작으로 인해 버터플라이 구간을 없애고 스크린을 볼 수 있는 시야를 좀 더 확보하여 이로 인해 정확한 터치 지점을 감지하기 위함이다.That is, the configuration of the camera sensor arrangement configured in this way is to detect a touch point accurately by arranging or staggering more than two camera sensors on the top surface of the touch screen. In addition, the role of the secondary camera is to eliminate the butterfly section due to the placement and operation of the camera sensor, to obtain a more visible view of the screen, thereby detecting the correct touch point.
도 3은 본 발명의 실시예에 따라 터치 지점을 카메라 센서를 통해 감지하는 방법을 설명하기 위한 예시도이다.3 is an exemplary diagram for describing a method of sensing a touch point through a camera sensor according to an exemplary embodiment of the present invention.
도 3을 참조하면, 도 3의 (a)에서 터치 스크린의 상면에 위치한 카메라 센서를 두 개씩 묶어서 L1과 C2를 사용할 때 멀티 터치를 하지 않고 버터플라이 구간에 원 터치로만 사용을 해도 카메라 센서 L1, C2가 터치 점을 판별하기 때문에 반대쪽에 있는 카메라 센서 R1이 잘 보지 못해도 무방하다. 이에 따라 R1의 시야가 미치지 못하는 터치 점을 보조카메라 C2가 처리하여 명확하게 터치 점을 판별할 수 있다. Referring to FIG. 3, in FIG. 3A, two camera sensors located on the upper surface of the touch screen are bundled, and even when the L1 and C2 are used, the camera sensors L1, even when only one touch is used in the butterfly section without multi-touch. Because C2 determines the touch point, the camera sensor R1 on the opposite side can be difficult to see. Accordingly, the auxiliary camera C2 processes the touch point that the field of view of R1 does not reach and can clearly identify the touch point.
또한 도 3의 (b)에서는 카메라 센서가 3개인 경우로서, 카메라 센서 L1과 C1을 사용하여 터치 점을 판별할 수 있다. 이에 따라 음영 처리된 R1의 시야가 미치지 못하는 터치 점을 보조 카메라 C1이 처리하여 명확하게 터치 점을 판별할 수 있다. In FIG. 3B, when three camera sensors are used, the touch points may be determined using the camera sensors L1 and C1. As a result, the auxiliary camera C1 processes the touch point that the shaded R1 field of view does not reach and can clearly determine the touch point.
상술한 바와 같이 다수의 카메라 센서의 배치에 따라 터치 스크린에 싱글 터치 혹은 멀티 터치했을 때 스크린에 닿은 터치 점을 그 부근에 위치한 가까운 카메라 센서가 터치 판별을 한다. As described above, according to the arrangement of the plurality of camera sensors, when a single touch or multi-touch is performed on the touch screen, a close camera sensor positioned near the touch point determines touch.
첨부된 도 4를 통해 본 발명에서 제시하는 카메라 센서 4개를 사용했을 경우에 대해 설명하면, 터치 점을 판별하기 위해 L1, C2가 페어(Pair)로 동작하고, C1과 R1이 pair로 동작을 한다. 이때 터치 좌표는 L1과 R1에 의해 터치 스크린의 전 영역을 커버(cover)하므로, 보조적으로 도 4의 (a) 경우, C2, 도 4의 (b)의 경우 C1을 사용한다.Referring to the case of using the four camera sensors proposed in the present invention with reference to Figure 4 attached, L1, C2 operates in a pair (Pair), C1 and R1 operates in pairs to determine the touch point do. In this case, since the touch coordinates cover the entire area of the touch screen by L1 and R1, the touch coordinates are used as C2 in FIG. 4A and C1 in FIG. 4B.
물론, 카메라 센서의 시야가 넓어 카메라 한 개로도 모두 볼 수 있겠지만, 보조 카메라를 사용함으로 인해 좀더 정확한 좌표 추출을 하기 위함이다. Of course, the field of view of the camera sensor is wide enough to see even a single camera, but the use of a secondary camera to extract more accurate coordinates.
이러한 카메라 센서의 시야는 90도 이상으로 구성하여 볼 수 있는 영역이 넓어져 상기 제시한 문제인 버터플라이 영역을 완화시킬 수 있다.The field of view of such a camera sensor is configured to be 90 degrees or more to widen the viewable area, thereby alleviating the butterfly area, which is the problem described above.
예를 들어, 도 5과 같이 터치 스크린 한 가운데에 직선 긋기를 할 때 카메라 배치 구성형태에 상관없이 자연스럽게 선 긋기를 할 수 있다. 이는 양측에 위치한 카메라가 넓게 볼 수 있지만 스크린 화면이 커짐에 따라 터치 했을 때 재귀반사시트로부터 받는 빛이 카메라와 거리가 생기면 잘 받지 못했던 것을 이때 가운데 장착시킨 보조 카메라가 반사되는 빛을 받아들이고 일정하게 선 긋기가 유지되는 것이다.For example, when a straight line is drawn in the middle of the touch screen as shown in FIG. 5, the line can be naturally drawn regardless of the camera arrangement configuration. This means that the cameras on both sides can be seen widely, but when the screen is bigger, the light received from the retroreflective sheet is not well received if it is far from the camera. Flick is maintained.
볼 수 있는 효과로는 카메라 센서의 넓은 시야로 자연스럽게 터치 구간을 넓게 사용하고 버터플라이 영역을 완화하여 스크린 표면에 터치 물체로부터 터치된 터치 포인트의 터치 정보를 정확히 판별할 수 있다. In view of the effect, a wide field of view of the camera sensor naturally uses a wide touch section, and a butterfly region may be relaxed to accurately determine touch information of a touch point touched from a touch object on the screen surface.
전술한 터치 스크린 시스템은 터치 점의 좌표를 추출하기 위해 카메라 센서가 동작하게 될 때, 도 6의 (a)는 카메라 센서를 L1과 C2 및 C1과 R1로 카메라 센서를 두 대씩 묶어 터치 영역을 나눈다. 도 6의 (b)는 카메라 센서를 L1과 C1 및 C1 및 R1으로 카메라 센서를 두 대씩 묶어 터치 영역을 나눈다.When the camera sensor is operated to extract the coordinates of the touch point, the above-described touch screen system divides the touch area by tying the camera sensors into L1, C2, and C1 and R1 by two camera sensors. . 6 (b) divides the touch area by tying the camera sensors into L1, C1, C1, and R1 by two camera sensors.
여러 대의 터치 스크린을 하나로 겹친 것이 아니라, 하나의 터치 스크린에 터치 영역을 나누었더라도 도 6의 아래와 같이 구분하게 되면 겹치는 부분이 발생하게 된다. Even if several touch screens are not overlapped as one, even if the touch area is divided into one touch screen, the overlapping portions are generated as shown in FIG.
이에 본 발명에서는 카메라 센서의 배치로 인해 터치 영역이 겹쳐지는 부분을 어파인(Affine)기법을 이용하여 보정하게 된다. 이에 대해서는 하기에서 상세히 설명하도록 한다.Accordingly, in the present invention, the portion where the touch region overlaps due to the arrangement of the camera sensor is corrected using the affine technique. This will be described in detail below.
한편, 본 발명은 도 7에 도시된 바와 같이, 우선 카메라 센서가 2개 이거나 혹은 3개인 경우 결과는 동일하게 쉐이딩 현상이 발생한다.Meanwhile, in the present invention, as shown in FIG. 7, first, when two or three camera sensors have the same shading phenomenon.
즉, 터치 스크린을 사용하는데 있어 터지 점을 인식하지만 카메라 센서의 위치에서 보이는 각도에 따라 터치 점의 개수를 정확히 인식하지 못하는 쉐이딩 현상이 발생한다.In other words, in using the touch screen, the shading phenomenon is recognized, but the touch point is not recognized correctly depending on the angle seen from the position of the camera sensor.
도 7을 통해 설명하면, 카메라 센서가 2개인 도 7의 (a) 및 카메라 센서가 3개인 도 7의 (b)는 터치 포인트를 한 개 이상 찍었을 경우 카메라 센서A의 경우 보게 되는 첫 번째 터치 점이 뒤에 있는 두 번째 터치 점을 가려 하나의 터치 포인트로만 인식을 하고 각도만 받아오게 되지만 반대로 카메라 센서B의 경우 보게 되는 각도는 카메라 센서A와 반대로 두 개의 터치 점을 모두 볼 수 있어 각 터치 점의 좌표와 각도를 얻어 올 수 있다. Referring to FIG. 7, (a) of FIG. 7 having two camera sensors and (b) of FIG. 7 having three camera sensors, the first touch seen in the case of camera sensor A when at least one touch point is taken The point obscures the second touch point behind it and recognizes it as only one touch point and receives only the angle. On the contrary, in the case of camera sensor B, the angle seen is opposite to camera sensor A. You can get coordinates and angles.
이에 본 발명에서는 좌표 보정 알고리즘을 이용한다.In the present invention, a coordinate correction algorithm is used.
좌표 보정 알고리즘은 카메라 센서가 3개인 경우든 4개일 경우든 상관없이 같은 방법을 이용하며, 좌표 보정 알고리즘은 다음과 같다.The coordinate correction algorithm uses the same method regardless of three or four camera sensors. The coordinate correction algorithm is as follows.
터치 스크린 화면을 8x8로 나누어서 정밀측정을 실시한다. 이는 물리적인 좌표와 LR좌표 그리고 RC 좌표에 대한 각도를 계산하여 보정각을 look-up table형식으로 만든다. Precise measurement is performed by dividing the touch screen screen by 8x8. It calculates angles for physical coordinates, LR coordinates, and RC coordinates to form a correction angle in the form of a look-up table.
여기서 말하는 LC와 RC는 상기 좌표 추출 연산 알고리즘에서 기술했듯이 Left-sensor와 Right-sensor 그리고 Center-sensor를 말하는 것으로 각각을 LC 혹은 RC라고 칭한다. Here, LC and RC refer to Left-sensor, Right-sensor, and Center-sensor as described in the coordinate extraction algorithm. Each of them is called LC or RC.
center-sensor같은 경우 본 발명에서 제시하는 스크린 가운데 카메라 센서 두 개가 더 장착되어 있으므로, 각각을 C1, C2이렇게 칭하도록 하며, 이는 도 8에 도시된 바와 같다.In the case of the center-sensor, since two more camera sensors are mounted among the screens proposed by the present invention, each of them is referred to as C1 and C2, as shown in FIG. 8.
도 10은 본 발명의 실시예에 따라 좌표 보정 작업을 하기 위한 형태를 설명하기 위한 예시도이다.10 is an exemplary view for explaining a form for performing a coordinate correction operation according to an embodiment of the present invention.
도 10을 참조하면, 좌표 보정 작업을 위해 8*8 로 나눈 이미지로서, 카메라 센서가 4개인 경우의 도 9의 (a)와 카메라 센서가 3개인 경우의 도 9의 (b)도 동일하게 적용한다.Referring to FIG. 10, as an image divided by 8 * 8 for coordinate correction, FIG. 9A when four camera sensors and FIG. 9B when three camera sensors are similarly applied. do.
좌표 보정 작업을 위해서는 보정값을 Look-up table을 만든다. 이때 Look-up table을 만들기 위해서 8*8 내부에서는 linear interpolation을 수행한다. linear interpolation에 대한 계산 방법은 LR look-up table과 RC look-up table로 나누어 물리적인 좌표와 LR, RC 좌표로 계산한다.For coordinate correction, look-up table is created. In this case, linear interpolation is performed inside 8 * 8 to create a look-up table. The calculation method for linear interpolation is divided into LR look-up table and RC look-up table and calculated by physical coordinates and LR and RC coordinates.
첨부된 도 10을 참조하여 설명하면, 우선 각도 보정하는 계산 방법으로 계산방법은 다음과 같다.Referring to the accompanying FIG. 10, first, the calculation method is as follows.
A라는 터치 점은 손가락이나 펜으로 터치한 것이며 터치했을 때 나온 물리적인 좌표 측정치는 (220, 213)이다. 그러나 이 좌표 정보는 카메라 센서의 문제로 잘못 추출된 정보이다. 정확한 좌표 측정치를 얻기 위해 보정할 위치는 1번으로 표시한 지점으로 (230, 216)이다. The touch point A is a finger or pen touch, and the physical coordinate measurement at the touch is (220, 213). However, this coordinate information is incorrectly extracted due to a problem of a camera sensor. The position to be corrected to obtain an accurate coordinate measurement is the point labeled 1 (230, 216).
이렇게 실제 측정치와 터치했을 때의 측정치가 다르게 나오는 이유는 카메라 센서가 재귀반사로부터 빛을 잘 받아들이지 못해 정확한 좌표 정보를 가져오지 못해서이다. 때문에 터치 물체가 닿은 터치 점의 위치에서 실제 위치하게 될 방향을 화살표 방향으로 표시한 것과 같이 보정해 주려고 한다. The reason why the measured value is different from the actual measured value is that the camera sensor does not receive light from the retroreflection so that it does not bring accurate coordinate information. Therefore, we want to correct the direction of the touch point where the touch object touches as indicated by the arrow direction.
A의 좌표 측정치와 1번의 좌표 측정치의 차이는 (-10, -3)이며, 이 차이 값을 보정각 이라고 한다. The difference between the coordinate measurement value of A and the coordinate measurement value of No. 1 is (-10, -3), and this difference value is called a correction angle.
방금 설명한 보정방법은 Linear interpolation공식을 적용하였다. 다른 터치 점의 보정방법도 이와 같이 대응한다. The calibration method just described uses the linear interpolation formula. The other touch point correction method also corresponds to this.
Linear interpolation공식은 하기의 수학식 1과 같다. The linear interpolation formula is shown in
여기서 f(xi,yi)는 보정각을 뜻하는 것으로 위에서 look-up table에서 LC 보정각 혹은 RC 보정각을 뜻한다. Here, f (xi, yi) means the correction angle, which means LC correction angle or RC correction angle in the look-up table.
도 11a 및 도 11b는 본 발명의 실시예에 따른 카메라 센서를 장착한 터치 스크린의 터치 동작 방법을 보인 흐름도이다.11A and 11B are flowcharts illustrating a touch operation method of a touch screen equipped with a camera sensor according to an exemplary embodiment of the present invention.
도 11a 및 도 11b를 참조하면, 터치 스크린에 전원이 들어오면 터치의 정보를 받아들이기 위한 설정을 한다. 이는 터치 물체가 터치 스크린에 닿기 전의 스크린 화면 초기화와 터치된 위치의 정보를 받아들이기 위해 데이터를 주고 받는 등 모두 초기화된 상태이다. 그 후 다수의 카메라 센서가 터치 물체가 닿기 전의 영상과 닿은 후의 영상을 실시간으로 캡쳐한다. 11A and 11B, when power is supplied to the touch screen, a setting for receiving information of the touch is made. In this state, the screen is initialized before the touch object touches the touch screen, and data is initialized, such as exchanging data to receive information on the touched position. Afterwards, multiple camera sensors capture the image before and after the touch object touches in real time.
캡쳐하는 도중 터치 물체가 터치 스크린에 닿았다면, 터치 되었을때의 화면인 흑, 백 영상으로 터치가 되었다는 것을 확인하고 터치 점과 최대한 근접해 있는 센서가 이를 스캔하고 터치 점 모두를 볼 수 있는 센서가 참조하여 보조 카메라 역할로 스크린 영상 이미지를 캡쳐한다.If the touch object touches the touch screen during capturing, it is confirmed that the touch is made with the black and white image when the touch is made, and the sensor closest to the touch point scans it and the sensor can see all the touch points. To capture the screen image image as a secondary camera.
캡쳐한 과정이 모두 끝나면 터치 점 개수를 판단하고 싱글인지 멀티인지를 확인한다.When the process of capturing is complete, determine the number of touch points and check whether it is single or multi.
만약, 싱글이라면 좌표 추출 연산을 한다. 이 연산을 Linear Interpolation공식을 이용하여 보정하는 과정까지를 포함하며, 그에 대한 과정은 상기 기술한 도 11의 설명인 좌표 보정하는 설명과 대응하다. If it is single, it performs coordinate extraction operation. This operation includes a process of correcting using the linear interpolation formula, and the process thereof corresponds to the description of coordinate correction, which is the description of FIG. 11 described above.
만약, 멀티라면 상기 전 순서에서 캡쳐 했던 흑백 영상의 이미지를 비교하여 허상을 제거하는 단계로 넘어간다. 허상을 제거하여 허상이 아닌 실제 터치 점의 좌표 점을 추출하고 보정역할을 한다. If it is multi, the process proceeds to removing the virtual image by comparing the image of the black and white image captured in the previous step. By removing the virtual image, it extracts the coordinate point of the actual touch point rather than the virtual image and plays a correction role.
상기 추출된 좌표점의 보정과정에 대해서 도 11b를 참조하여 설명하면, 우선 다수의 보정 기준점을 선정한다.The correction process of the extracted coordinate points will be described with reference to FIG. 11B. First, a plurality of correction reference points are selected.
이후, 터치된 지점의 ideal 상태의 좌표(이하, 'P0'라 표기함)와 터치 스크린의 컨트롤러에서 연산된 좌표(이하, 'P1'이라 표기함)의 차이를 측정한다.Thereafter, the difference between the coordinates of the ideal state of the touched point (hereinafter, referred to as 'P0') and the coordinates calculated by the controller of the touch screen (hereinafter, referred to as 'P1') is measured.
이후, 측정된 차이를 LUT(Look-up table)에 저장한다.Thereafter, the measured difference is stored in a look-up table (LUT).
임의의 지점에 터치가 인식되면, P0와 P1이 일치하는지를 판단한다.When a touch is recognized at an arbitrary point, it is determined whether P0 and P1 coincide.
판단결과, 일치하지 않으면 임의의 터치가 발생된 지점에 대해 터치 스크린의 컨트롤러(P1)에서 좌표를 연산하고, 연산된 좌표를 4개의 백터로 분해한다.As a result of the determination, if it does not match, the coordinates are calculated by the controller P1 of the touch screen at a point where an arbitrary touch is generated, and the calculated coordinates are decomposed into four vectors.
이후 연산된 좌표에 보정값을 적용하여 정확한 좌표를 산출하여 호스트에 전송한다. After that, the corrected coordinates are calculated and applied to the calculated coordinates and transmitted to the host.
만약 P0과 P1이 일치하면 보정값을 적용하여 정확한 좌표를 산출할 필요성이 없으므로, 좌표 보정 과정을 종료한다.If P0 and P1 coincide, there is no need to calculate the correct coordinate by applying the correction value, so the coordinate correction process is terminated.
상기 좌표 보정 과정이 종료된 이후, 연속 입력 유무를 판단한다. After the coordinate correction process is finished, it is determined whether there is a continuous input.
연속으로 입력할 경우가 아니라면 앞 순서에서 추출했던 좌표 점의 정보에서 초기화 시켜 다시 터치의 정보 데이터를 받아들이기 위해 초기화 과정을 거친 후 대기상태로 돌아간다. If it is not input continuously, it initializes from the information of the coordinate point extracted in the previous step and goes back to the standby state after initializing process to receive the information data of touch again.
만약, 연속으로 받아들인다면 앞서 좌표 점을 추출했던 데이터를 메모리에 저장시키고 초기화하여 앞 과정 터치 확인하는 과정부터 좌표 점 추출하는 과정을 거쳐 추출한 좌표 정보를 호스트에 전달하고 이를 화면에 출력하는 과정까지 연속한다. If it is accepted continuously, the data extracted from the coordinate point is stored in the memory and initialized to confirm the touch of the previous process, and the process of extracting the coordinate point and transferring the extracted coordinate information to the host and outputting it to the screen. To be continuous.
여기까지는 싱글 또는 멀티 터치의 동작흐름의 과정이다. Up to this point, the operation flow of single or multi-touch.
한편, 상기 터치의 정보를 받아들이기 위한 설정과정에서 터치영역이 겹쳐져 일어나는 오차를 보정하는 과정을 수행한다.Meanwhile, a process of correcting an error caused by overlapping of touch areas is performed in a setting process for receiving information of the touch.
이에 대한 기술 설명의 이해를 돕기 위해 첨부된 도 12를 참조하여 설명한다.This will be described with reference to the accompanying FIG. 12 to help understand the technical description thereof.
도 12에서 카메라 센서 4개일 경우, L1과 C2의 영역과 C1과 R1의 영역이 겹쳐지는 부분을 보정해야 한다. 이는 영역이 겹쳐지기 때문에 정확한 터치 점을 얻어 내기 위해 보정과정을 거쳐야 한다.In the case of four camera sensors in FIG. 12, a portion where the regions of L1 and C2 overlap with the regions of C1 and R1 should be corrected. Since the areas overlap, the calibration process must be performed to obtain accurate touch points.
본 발명에서는 어파인(Affine)기법을 이용하여 겹쳐지는 영역의 터치오차를 보정한다. Affine기법이란 회전, 전이, 크기 변화와 이들의 조합으로 이뤄지는 선형 기하 변환이라고 하며 어파인 변환(Affine Transform)이라고 한다. 어파인 기법을 이용하여 겹쳐지는 영역을 보정하기 위한 방법의 흐름은 다음과 같다.In the present invention, the touch error of overlapping regions is corrected using an affine technique. The Affine technique is called a linear geometric transformation that consists of rotations, transitions, changes in magnitude, and a combination of these, and is called an affine transform. The method flow for correcting overlapping regions using the affine technique is as follows.
도 13은 본 발명의 실시예에 따른 어파인 기법에 의한 겹쳐지는 부분의 보정 흐름도이다.13 is a flowchart illustrating correction of overlapped portions by an affine technique in accordance with an embodiment of the present invention.
도 13을 참조하면, S1단계는 변환하기 위한 기준점을 결정하는 선행 작업이다(Model registration). 이 선행 작업은 상기 기술한 좌표 보정하는 과정과 대응한다. 이는 터치 스크린 전체에서 어느 한 곳에 터치 점을 인식하기 위해 거쳐야 하는 일련의 과정이기 때문이다. 이에 S1단계에서는 좌표 보정하는 일련의 과정이 선행 작업으로 행해진다. Referring to FIG. 13, step S1 is a predecessor for determining a reference point for transformation (Model registration). This preceding task corresponds to the above described process of correcting coordinates. This is because it is a series of processes that must be performed to recognize a touch point anywhere in the entire touch screen. In the step S1, a series of processes for correcting coordinates are performed as a prior work.
S2단계에서는 겹쳐지는 부분의 외곽 정보를 결정하여 외곽부분을 메인 컨트롤러에 넘겨준다(Input image). S3단계에서는 입력 영상에서의 대응관계를 결정하는데, 이는 겹쳐지는 외곽부분과 이 외곽에 터치 된 터치 점과의 대응관계를 결정한다(Find boundary). S1단계에서 일련의 과정으로 행해진 선행작업에서 좌표 보정한 정보와 외곽에 터치 된 터치 점과의 정보가 같은지 판단을 하고 대응관계를 결정한다. S4단계에서는 S3단계에서 대응되는 정보로 Affine 변환을 수행한다(Affine Transform & matching). In step S2, the outer information of the overlapping part is determined and the outer part is passed to the main controller (Input image). In step S3, a correspondence relationship is determined in the input image, which determines a correspondence relationship between an overlapping outer portion and a touch point touched on the outside (Find boundary). In step S1, it is determined whether the coordinate corrected information and the information of the touch point touched on the outside are the same and determine the correspondence in the preceding work performed in the series of steps. In step S4, Affine transformation is performed with information corresponding in step S3 (Affine Transform & matching).
겹쳐지는 영역에 터치가 되었을 경우에는 터치 된 터치 점을 다음과 같이 구해서 상기 설명된 내용과 대응하게 보정한다.When a touch is made on the overlapping area, the touched touch point is obtained as follows and corrected according to the above description.
예를 들어, L1과 C2의 영역에 터치 점이 겹쳐지는 부분에 찍혔을 경우 C2와 R1의 영역을 무시하고 L1과 C2의 영역에 찍힌 터치 점을 보정해서 사용한다.For example, if the touch point is overlapped with the areas of L1 and C2, the touch points of the areas L1 and C2 are corrected and used, ignoring the areas of C2 and R1.
한편 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments, but is capable of various modifications within the scope of the invention. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.
Claims (7)
상기 터치 점을 인식하기 위해 상기 터치 스크린의 초기 설정을 수행하는 제1단계;
카메라 센서에 의해 실시간으로 캡쳐되는 흑백 이미지를 통해 터치 여부를 확인하고, 확인 결과 터치 점에 근접한 카메라 센서에 의해 이미지 스캐닝을 수행하는 제2단계; 및
상기 수행된 이미지 스캐닝에 의해 획득되는 터치 점의 개수를 판단하고, 상기 판단 결과 복수의 터치 점이 획득된 경우에는 상기 실시간으로 캡쳐된 흑백 이미지를 서로 비교하여 허상을 제거한 후 실제 터치 점을 추출하고 추출된 실제 터치 점의 좌표를 선형 보간법(Linear interpolation)을 이용하여 보정하여 출력하고, 상기 판단 결과 하나의 터치 점이 획득된 경우에는 획득된 하나의 터치 점의 좌표를 상기 선형 보간법을 이용하여 보정하여 출력하는 제3단계를 포함하고,
상기 제1단계는,
상기 다수의 카메라 센서 중 각 카메라 센서 또는 소정 그룹의 카메라 센서가 감지하는 터치 스크린의 감지 영역이 상호 겹침으로 인해서 발생되는 오차를 보정하기 위한 기준점을 결정하는 단계;
상기 기준점을 기준으로 상기 터치 스크린의 감지 영역이 겹쳐지는 부분의 외곽 정보를 결정하는 단계;
상기 결정된 외곽 정보와 터치 점과의 대응 관계를 결정한 후, 결졍된 대응관계에 의해 상기 터치 점에 대해 어파인(Affine)변환을 수행함으로써 상기 감지 영역이 겹쳐지는 부분의 터치 점을 보정하는 단계를 포함하는 것을 특징으로 하는 카메라 센서를 장착한 터치 스크린 시스템의 터치 동작 방법.In the touch operation method of the touch screen system having a plurality of camera sensors to recognize the touch point touched on the touch screen,
A first step of performing initial setting of the touch screen to recognize the touch point;
A second step of checking whether a touch is made through a black and white image captured by the camera sensor in real time and performing image scanning by a camera sensor close to the touch point as a result of the checking; And
The number of touch points acquired by the performed image scanning is determined. When a plurality of touch points are obtained as a result of the determination, the black and white images captured in real time are compared with each other to remove virtual images, and then the actual touch points are extracted and extracted. Correct the coordinates of the actual touch point by using linear interpolation (Linear interpolation) and output, and if the result of the determination is obtained one touch point by correcting the coordinates of the obtained one touch point by using the linear interpolation method Including the third step,
In the first step,
Determining a reference point for correcting an error caused by overlapping of detection areas of a touch screen detected by each camera sensor or a group of camera sensors among the plurality of camera sensors;
Determining outline information of a portion where the sensing region of the touch screen overlaps with respect to the reference point;
Determining a correspondence relationship between the determined outer information and the touch point, and then correcting the touch point of the portion where the sensing region overlaps by performing an affine transformation on the touch point according to the determined correspondence. Touch operation method of a touch screen system equipped with a camera sensor comprising a.
다수의 보정 기준점을 선정하는 단계;
상기 보정 기준점의 실제 좌표와 상기 보정 기준점이 터치 스크린 시스템에서 연산된 좌표의 차이를 측정하여 미리 룩업 테이블에 저장하는 단계;
상기 실제 좌표와 상기 연산된 좌표가 일치하는가를 판단하고, 판단 결과 일치하지 않으면, 상기 연산된 좌표를 상기 다수의 보정 기준점을 각각 향하는 다수의 벡터로 분해하고 분해된 벡터에 대해 상기 룩업 테이블에 저장된 차이를 이용한 보정값을 산출하는 단계;
상기 연산된 좌표에 상기 보정값을 적용한 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 카메라 센서를 장착한 터치 스크린 시스템의 터치 동작 방법.The method of claim 1, wherein the third step,
Selecting a plurality of calibration reference points;
Measuring a difference between the actual coordinates of the correction reference point and the coordinates calculated by the touch screen system and storing the difference in the lookup table in advance;
It is determined whether the actual coordinates and the calculated coordinates coincide. If the determination does not match, the calculated coordinates are decomposed into a plurality of vectors facing the plurality of correction reference points, respectively, and stored in the lookup table for the decomposed vector. Calculating a correction value using the difference;
And calculating a coordinate obtained by applying the correction value to the calculated coordinates.
상기 터치 스크린의 상면에 위치하고 모서리에 각각 하나씩 위치하되, 3개의 카메라 센서인 경우에는 모서리에 위치한 2개의 카메라 센서 사이의 중간 지점에 1개의 카메라 센서를 위치시키고, 4개의 카메라 센서인 경우에는 모서리에 위치한 2개의 카메라 센서 사이의 중간 지점에 2개의 카메라 센서를 위치시키는 것을 특징으로 하는 카메라 센서를 장착한 터치 스크린 시스템의 터치 동작 방법.The method of claim 1, wherein the plurality of camera sensors,
Located on the upper surface of the touch screen and located one at each corner, in the case of three camera sensors, one camera sensor is positioned at an intermediate point between two camera sensors located at the corner, and in the case of four camera sensors, A method of operating touch of a touch screen system with a camera sensor, characterized in that two camera sensors are positioned at an intermediate point between two camera sensors located.
상기 중간 지점에 위치하는 2개의 카메라 센서는 시야가 터치 스크린의 바닥면을 향하도록 함과 동시에 서로 마주보는 방향으로 장착되거나, 상기 2개의 카메라 센서는 시야가 터치 스크린의 바닥면을 향하도록 함과 동시에 서로 대향하는 방향으로 장착되거나, 상기 2개의 카메라 센서는 터치 스크린의 바닥면을 기준으로 수직의 시야를 가질 수 있도록 장착되는 것을 특징으로 하는 카메라 센서를 장착한 터치 스크린 시스템의 터치 동작 방법.The method of claim 5, wherein the four camera sensors,
The two camera sensors located at the intermediate point are mounted in a direction facing each other at the same time, with the field of view facing the bottom surface of the touch screen, or the two camera sensors are directed toward the bottom surface of the touch screen. At the same time or mounted in a direction facing each other, the two camera sensors are mounted so as to have a vertical field of view based on the bottom surface of the touch screen, the touch operation method of the touch screen system with a camera sensor.
아래의 수학식 1에 의해 수행되는 것을 특징으로 하는 카메라 센서를 장착한 터치 스크린 시스템의 터치 동작 방법.
(수학식 1)
여기서 f(xi,yi)는 보정각을 의미함. The method of claim 1, wherein the linear interpolation method,
Touch operation method of a touch screen system equipped with a camera sensor, characterized in that performed by Equation 1 below.
(Equation 1)
Where f (xi, yi) means the correction angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100106709A KR101137003B1 (en) | 2010-10-29 | 2010-10-29 | Method for operating touch of touch screen having camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100106709A KR101137003B1 (en) | 2010-10-29 | 2010-10-29 | Method for operating touch of touch screen having camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101137003B1 true KR101137003B1 (en) | 2012-04-19 |
Family
ID=46143784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100106709A KR101137003B1 (en) | 2010-10-29 | 2010-10-29 | Method for operating touch of touch screen having camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101137003B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101415679B1 (en) * | 2013-08-07 | 2014-07-04 | (주)비앤에스미디어 | An output method of touch coordinate for touch screen equipment |
KR20160113381A (en) * | 2015-03-18 | 2016-09-29 | 한국전자통신연구원 | Display integrated input Apparatus |
WO2022250238A1 (en) * | 2021-05-25 | 2022-12-01 | (주) 이즈커뮤니케이션즈 | System for information input into computer and method for calculating coordinates of input information by using information input system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003303046A (en) * | 2002-04-11 | 2003-10-24 | Ricoh Elemex Corp | Optical coordinate detection device |
JP2010118018A (en) * | 2008-11-14 | 2010-05-27 | Sharp Corp | Position identifying device, position identification program, computer-readable storage medium, and position identification method |
-
2010
- 2010-10-29 KR KR1020100106709A patent/KR101137003B1/en not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003303046A (en) * | 2002-04-11 | 2003-10-24 | Ricoh Elemex Corp | Optical coordinate detection device |
JP2010118018A (en) * | 2008-11-14 | 2010-05-27 | Sharp Corp | Position identifying device, position identification program, computer-readable storage medium, and position identification method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101415679B1 (en) * | 2013-08-07 | 2014-07-04 | (주)비앤에스미디어 | An output method of touch coordinate for touch screen equipment |
KR20160113381A (en) * | 2015-03-18 | 2016-09-29 | 한국전자통신연구원 | Display integrated input Apparatus |
KR102133262B1 (en) * | 2015-03-18 | 2020-07-14 | 한국전자통신연구원 | Display integrated input Apparatus |
WO2022250238A1 (en) * | 2021-05-25 | 2022-12-01 | (주) 이즈커뮤니케이션즈 | System for information input into computer and method for calculating coordinates of input information by using information input system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4820285B2 (en) | Automatic alignment touch system and method | |
TWI454993B (en) | Imaging device based touch system | |
US9454260B2 (en) | System and method for enabling multi-display input | |
TWI526916B (en) | Multi-touch screen device and multi-touch screen adjacent junction detection method | |
CN103279225B (en) | Projection type man-machine interactive system and touch control identification method | |
CN106062678A (en) | Flexible touch sensitive display device and control method thereof | |
TWI461975B (en) | Electronic device and method for correcting touch position | |
TW201214243A (en) | Optical touch system and object detection method therefor | |
CN102163108B (en) | Method and device for identifying multiple touch points | |
CN102184056B (en) | Method and device for identifying multiple touch points | |
KR101137003B1 (en) | Method for operating touch of touch screen having camera | |
TWI417774B (en) | Optical distance determination device, optical touch monitor system and method for measuring distance of a touch point on an optical touch panel | |
TWI424343B (en) | Optical screen touch system and method thereof | |
CN102184054B (en) | Multi-touch-point recognizing method and device | |
CN102622140B (en) | Image pick-up multi-point touch system | |
KR101542671B1 (en) | Method and apparatus for space touch | |
CN102314263B (en) | Optical touch screen system and optical distance judgment device and method | |
CN202443449U (en) | Photographic multi-point touch system | |
TWI464651B (en) | Optical touch system and touch object separating method thereof | |
JP2014049023A (en) | Input device | |
TWI444875B (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor | |
Matsubara et al. | Touch detection method for non-display surface using multiple shadows of finger | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
CN114090144B (en) | Content display method and device | |
KR101197284B1 (en) | Touch system and touch recognizition method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150424 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160411 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170410 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |