KR20180128246A - Methods and apparatus for preventing misreading of touch pad - Google Patents

Methods and apparatus for preventing misreading of touch pad Download PDF

Info

Publication number
KR20180128246A
KR20180128246A KR1020170063561A KR20170063561A KR20180128246A KR 20180128246 A KR20180128246 A KR 20180128246A KR 1020170063561 A KR1020170063561 A KR 1020170063561A KR 20170063561 A KR20170063561 A KR 20170063561A KR 20180128246 A KR20180128246 A KR 20180128246A
Authority
KR
South Korea
Prior art keywords
input
optical sensor
touch pad
data
handwriting
Prior art date
Application number
KR1020170063561A
Other languages
Korean (ko)
Other versions
KR102355422B1 (en
Inventor
최영록
정연태
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170063561A priority Critical patent/KR102355422B1/en
Publication of KR20180128246A publication Critical patent/KR20180128246A/en
Application granted granted Critical
Publication of KR102355422B1 publication Critical patent/KR102355422B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/226Character recognition characterised by the type of writing of cursive writing

Abstract

The present invention relates to a method for preventing misreading of a touch pad and an apparatus thereof, capable of preventing misreading even when an input from a user deviates from a touch pad area. According to an embodiment of the present invention, a method of preventing misreading of a touch pad includes: detecting, by the touch pad, a handwriting input of a user; detecting, by an optical sensor, a handwriting input of a user that deviates from a touch pad area; sequentially storing, by a microcomputer, handwriting input data corresponding to a handwriting input sensing sequence of the optical sensor; and combining, by a head unit, the input data received from the microcomputer with a handwriting recognition engine. According to an embodiment of the present invention, the apparatus for preventing misreading of a touch pad includes: a touch pad for sensing a handwriting input from a user; an optical sensor for sensing a handwriting input of a user which deviates from a touch pad area; a microcomputer for sequentially storing handwriting input data corresponding to a handwriting input sensing sequence of the optical sensor; and a head unit for combining input data received from the microcomputer with a handwriting recognition engine.

Description

터치 패드 오인식 방지 방법 및 장치{Methods and apparatus for preventing misreading of touch pad}TECHNICAL FIELD The present invention relates to a method and apparatus for preventing misreading of a touch pad,

본 발명은 터치 패드 오인식 방지 방법 및 장치에 관한 것으로, 더욱 상세하게는 AVN(Audio Video Navigation) 입력장치 사용 시 중앙 터치패드가 필기 오인식을 보완하기 위한 터치 패드 오인식 방지 방법 및 장치에 관한 것이다.[0001] The present invention relates to a method and an apparatus for preventing a misunderstanding of a touch pad, and more particularly, to a method and an apparatus for preventing a misunderstanding of a touch pad by using a central touch pad when the AVN (Audio Video Navigation) input device is used.

종래의 기술은 오목형 조작계 중앙의 터치 패드는 사용자의 필기 입력을 받아 인식하는 기능을 한다. 상기 오목형 중앙 집중식 조작계의 경우 사용자가 실제 조작계를 보지 않고 조작하게 되고, 중앙의 터치 패드 면을 보지 않고 필기 입력을 하다 보면 오인식의 가능성이 높아진다.Conventionally, the touch pad in the center of the concave type operating system has a function of recognizing the handwriting input by the user. In the case of the concave centralized operating system, the user operates without looking at the actual operating system, and if the handwriting input is performed without looking at the center touch pad surface, the possibility of false recognition increases.

도 1 및 도 2는 종래 발명의 일 실시예에 따른 터치패드의 개요를 나타낸 도면이다.1 and 2 are views showing an outline of a touch pad according to an embodiment of the present invention.

도 1(a)를 참조하면, 종래 발명의 터치 패드 장치(100)는 터치패드 영역(110), 물리휠(120)을 포함할 수 있다. 상기 터치 패드(110)는 상기 터치패드는 터치 패드 오인식 방지 장치의 중앙에 배치될 수 있다. 물리휠(120)은 상기 터치패드(110)를 감싸도록 배치될 수 있다. 상기 물리휠(120)은 상기 터치패드와 경사를 이루도록 배치될 수 있다.Referring to FIG. 1 (a), a conventional touch pad device 100 may include a touch pad area 110 and a physical wheel 120. The touch pad 110 may be disposed at the center of the touch pad recognition device. The physical wheel 120 may be disposed so as to surround the touch pad 110. The physical wheel 120 may be disposed to be inclined with respect to the touch pad.

종래 발명의 경우, 사용자가 터치패드를 보지 않고 필기 입력 중 차량 이동, 흔들림 등에 의해 터치 패드 영역 외의 부분(1300)에 필기 입력을 할 경우, 오인식이 발생할 수 있다.In the case of the conventional invention, when a user performs handwriting input to a portion 1300 outside the touch pad area by moving or moving the vehicle during handwriting input without looking at the touch pad, a false sense may occur.

예를 들어, 도 1(b)와 같이 사용자가 "감"이라는 입력 데이터를 입력을 하였으나, 상기 입력 문자의 일부가 터치패드 영역 외의 부분(130)에 입력되어, 오인식이 발생할 수 있다. 예를 들어, 상기 필기 입력이 오인식 되는 경우, "감" 이라는 입력 데이터를 "가" 또는 "간" 등 다른 입력 데이터로 인식할 수 있다.For example, as shown in FIG. 1 (b), the user inputs the input data "sense", but a part of the input character is input to the portion 130 outside the touch pad area, thereby causing a false sense. For example, when the handwriting input is misrecognized, the input data "sense" can be recognized as other input data such as "A" or "B".

도 2에 도시된 바와 같이, 종래 발명의 터치 패드 장치(100)는 "감"이라는 입력문자의 일부 데이터를 수신할 수 있다(S210). 상기 일부 데이터는 터치패드 영역에 인식된 문자의 일부 일 수 있다.As shown in FIG. 2, the touch pad device 100 of the conventional invention can receive some data of an input character called "sense" (S210). Some of the data may be part of recognized characters in the touchpad area.

상기 입력 데이터가 수신되는 경우, 터치 패드 장치(100)는 필기 인식 엔진에 상기 입력문자의 일부 데이터를 입력할 수 있다(S220).When the input data is received, the touch pad device 100 may input some data of the input character to the handwriting recognition engine (S220).

상기 필기 인식 엔진은 상기 입력문자의 일부 데이터 입력 시 입력이 완료되지 않은 영역을 유추하여 사용자에게 여러 개의 후보 문자를 출력할 수 있다(S230). 사용자는 상기 여러 개의 후보 문자 중 하나를 선택할 수 있다(S240).The handwriting recognition engine may infer an area in which input is not completed when a partial data of the input character is input, and output a plurality of candidate characters to the user (S230). The user can select one of the plurality of candidate characters (S240).

하지만, 종래 발명의 터치 패드 장치는 상기와 같이 필기인식 엔진의 성능만으로는 입력글자 인식에 대한 빠른 시스템 반응속도를 구현하기 어려우며, 여러 개의 후보 리스트를 사용자에게 전달하여 그 중 하나를 선택하여 대기시간이 새기는 문제점이 있다.However, according to the conventional touch pad device, it is difficult to realize a fast system response speed for input character recognition only by the performance of the handwriting recognition engine as described above, and a plurality of candidate lists are delivered to the user, There is a problem of engraving.

본 발명에서는 상술한 종래 기술의 문제점을 해결하기 위해 고안된 것으로, 본 발명의 목적은 터치 패드 오인식 방지 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the related art, and it is an object of the present invention to provide a method and an apparatus for preventing a touch pad misrecognition.

더욱 상세하게, 본 발명은 사용자가 터치 패드 영역을 벗어나게 입력하는 경우에 오인식을 방지하기 위하여, 물리휠에 광학센서를 설치하여 사용자의 입력을 감지하는 터치 패드 오인식 방지 방법 및 장치를 제공하는 데 그 목적이 있다.More specifically, the present invention provides a method and an apparatus for preventing a false recognition of a user's touch by providing an optical sensor on a physical wheel to detect a user's input, in order to prevent a mistaken typing when a user enters an area out of the touch pad area. There is a purpose.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.

상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법은 터치패드가 사용자의 필기 입력을 감지하는 단계, 광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계, 마이컴이 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 단계 및 헤드유닛이 상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for preventing a misunderstanding of a touch pad, including the steps of sensing a handwriting input of a user by a touch pad, inputting a handwriting input of a user out of the touch pad area, Storing the touch pad input data and the optical sensor input data in a microcomputer, and combining the input data received from the microcomputer with a handwriting recognition engine.

또한, 본 발명의 일 실시예에 따른 사용자의 필기 입력을 감지하는 터치패드, 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 광학센서, 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 마이컴 및상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 헤드유닛을 포함할 수 있다.In addition, according to an exemplary embodiment of the present invention, a touch pad that senses a handwriting input of a user, an optical sensor that senses a handwriting input of a user who is out of the touch pad area, And a head unit for combining input data received from the microcomputer and the microcomputer into a handwriting recognition engine.

본 발명에 따른 터치 패드 오인식 방지 방법 및 장치에 대한 효과를 설명하면 다음과 같다.The effect of the method and apparatus for preventing the misreading of the touch pad according to the present invention will be described as follows.

첫째, 오목형 조작계는 사용자가 조작계를 보지 않고 입력하는 방식이므로, 터치패드 외의 영역에 필기 입력이 발생할 소지가 다분하며, 특히 주행 중에는 잦은 영역 이탈이 예상되므로, 해당 상황 발생 시에도 고객의 의도대로 인식하여 고객 사용성을 향상하는 장점이 있다.First, since the concave type operating system is a method of inputting without looking at the operating system, handwriting input is likely to occur in areas other than the touch pad, and in particular, frequent departures are expected during driving. Therefore, And to improve customer usability.

둘째, 새로운 접근인 오목형 조작계의 취약점을 보완하여, 좀 더 발전적으로 고객지향적인 지능화된 입력장치라는 이미지를 강하게 출력하는 장점이 있다.Second, it complements the weak point of the new approach, the concave type operating system, and has the advantage of outputting the image as a more advanced and customer-oriented intelligent input device.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도1 내지 2는 종래 발명의 일 실시예에 따른 터치패드를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 장치의 개요를 나타낸 도면이다.
도 4는 본발명의 일 실시예에 따른 터치 패드 오인식 방지 장치의 외견을 도시한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법의 흐름을 도시한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 광학센서를 활용한 사용자 필기 입력의 위치 인식 방법을 나타내는 예시도이다.
도 7 내지 9는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법을 설명하기 위한 예시도이다.
1 and 2 are views for explaining a touch pad according to an embodiment of the present invention.
3 is a diagram illustrating an outline of a device for preventing a false recognition of a touch pad according to an embodiment of the present invention.
4 is an exemplary view showing an appearance of a device for preventing the recognition of a touch pad according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method of preventing a false recognition of a touch pad according to an exemplary embodiment of the present invention. Referring to FIG.
6 is an exemplary diagram illustrating a method of recognizing a position of a user handwriting input using an optical sensor according to an embodiment of the present invention.
7 to 9 are diagrams for explaining a method for preventing a touch pad mis-recognition according to an embodiment of the present invention.

이하, 본 발명의 실시예들이 적용되는 장치 및 다양한 방법들에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and various methods to which embodiments of the present invention are applied will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

실시예의 설명에 있어서, 각 구성 요소의 " 상(위) 또는 하(아래)", "전(앞) 또는 후(뒤)"에 형성되는 것으로 기재되는 경우에 있어, "상(위) 또는 하(아래)" 및"전(앞) 또는 후(뒤)"는 두 개의 구성 요소들이 서로 직접 접촉되거나 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 배치되어 형성되는 것을 모두 포함한다.In the description of the embodiment, in the case of being described as being formed on the "upper or lower", "before" or "after" of each component, (Lower) "and" front or rear "encompass both that the two components are in direct contact with each other or that one or more other components are disposed between the two components.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성 요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

본 발명의 실시예들은 오목형 조작계 중앙의 터치 패드는 사용자의 필기 입력을 받는 경우, 물리휠에 설치된 광학센서를 통해 터치 패드 영역을 벗어난 필기를 인식하여, 사용자가 터치 패드 영역을 벗어나게 입력하는 경우에 오인식을 방지 할 수 있는 방법 및 장치에 관한 것이다.In the embodiments of the present invention, when the touch pad at the center of the concave type operating system receives a handwriting input from the user, the handwriting out of the touch pad area is recognized through the optical sensor installed on the physical wheel, and when the user inputs the handwriting out of the touch pad area The present invention relates to a method and an apparatus capable of preventing erroneous recognition.

도 3 및 4 는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 장치 의 개요를 나타낸 도면이다.3 and 4 are views showing an overview of a device for preventing the recognition of a touch pad according to an embodiment of the present invention.

도 3을 참조하면, 터치 패드 오인식 방지 장치는 터치패드(310), 물리휠(320), 광학센서(330), 마이컴(340) 및 헤드유닛(350)을 포함할 수 있다.Referring to FIG. 3, the touch pad recognition device includes a touch pad 310, a physical wheel 320, an optical sensor 330, a microcomputer 340, and a head unit 350.

터치패드(310)는 사용자의 터치 입력을 전기적 신호로 전환할 수 있다.The touch pad 310 may switch the user's touch input to an electrical signal.

상기 터치패드(310)는 사용자에 의해 명령이 입력되는 부위이고, 예를 들어 정전식 터치스크린 패널로 구비될 수 있다. 상기 터치패드(310)는 사용자의 필기 입력을 감지할 수 있다.The touch pad 310 is a portion to which a command is input by a user, and may be, for example, a capacitive touch screen panel. The touch pad 310 may sense the handwriting input of the user.

물리휠(320)은 사용자의 조작에 대응하여 사용자의 입력을 출력할 수 있다. 상기 물리휠(320)은 버튼, 조그휠, 스위치 등을 포함할 수 있다.The physical wheel 320 may output a user's input in response to a user's operation. The physical wheel 320 may include a button, a jog wheel, a switch, and the like.

광학센서(330)는 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 상기 광학센서(330)는 포토센서, 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.The optical sensor 330 may convert the user's gesture input to an electrical signal. The optical sensor 330 may include at least one of a photosensor, an infrared sensor, and an image sensor.

마이컴(340)은 상기 사용자의 입력을 감지한 광학센서(330)의 입력을 순차적으로 기억할 수 있다. 상기 마이컴(340)은 상기 광학센서(330)를 통해 입력된 데이터의 필기 입력 여부 판단할 수 있다. 상기 마이컴(340)은 상기 입력 데이터가 필기 입력이 아니라고 판단하는 경우 입력 데이터를 무시할 수 있다. 상기 마이컴(340)은 입력 데이터가 입력된 광학센서(330) 주변의 터치패드(310)에 기 설정된 시간 이전에 입력된 데이터가 있는 경우 필기 입력으로 판단할 수 있다.The microcomputer 340 may sequentially store the input of the optical sensor 330 that senses the input of the user. The microcomputer 340 may determine whether or not the data input through the optical sensor 330 is handwritten. When the microcomputer 340 determines that the input data is not the handwriting input, the microcomputer 340 can ignore the input data. The microcomputer 340 may determine that the input is a handwriting input when there is data input before a predetermined time in the touch pad 310 around the optical sensor 330 to which the input data is input.

헤드유닛(350)은 상기 마이컴(340)으로부터 수신한 데이터를 필기인식 엔진으로 조합하여 전달할 수 있다. 상기 헤드유닛(350)은 상기 터치패드(310)를 통해 입력된 데이터, 상기 광학센서(330)를 통해 입력된 사용자의 필기에 대응하는 궤적의 위치 및 순서에 기초하여 결과 데이터를 출력할 수 있다. 상기 헤드유닛(350)은 상기 마이컴(340)에서 입력받은 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 필기인식 엔진으로 조합하여 전달할 수 있다. 상기 헤드유닛(350)은 필기인식 엔진에서 추가적인 사용자 필기 입력 예측 단계를 뛰어넘어 바로 결과 데이터를 찾을 수 있다.The head unit 350 can combine the data received from the microcomputer 340 with a handwriting recognition engine and deliver it. The head unit 350 can output the result data based on the data input through the touch pad 310 and the position and order of the locus corresponding to the handwriting of the user inputted through the optical sensor 330 . The head unit 350 may transmit the touch pad input data and the optical sensor input data received from the microcomputer 340 to a handwriting recognition engine. The head unit 350 can go beyond the additional user handwriting input prediction step in the handwriting recognition engine to locate the result data directly.

도 4(a) 및 4(b)를 참조하면, 터치패드(310)는 터치 패드 오인식 방지 장치의 중앙에 배치될 수 있다. 상기 터치패드(310)는 원형으로 형성될 수 있다.Referring to FIGS. 4 (a) and 4 (b), the touch pad 310 may be disposed at the center of the touch pad recognition device. The touch pad 310 may have a circular shape.

물리휠(320)은 상기 터치패드(310)를 감싸도록 배치될 수 있다. 상기 터치패드는(310)는 상기 물리휠(320)의 하단부분과 결합 될 수 있다. 상기 물리휠(320)은 상기 터치패드(310)와 경사를 이루도록 배치될 수 있다. 이를 통해 상기 터치 패드(310)가 오목한 형태로 상기 물리휠(320)과 결합 될 수 있다.The physical wheel 320 may be disposed to surround the touch pad 310. The touch pad 310 may be coupled to a lower end portion of the physical wheel 320. The physical wheel 320 may be disposed to be inclined with respect to the touch pad 310. So that the touch pad 310 can be coupled to the physical wheel 320 in a concave shape.

광학센서(330)는 상기 물리휠(320)에 내부에 배치될 수 있다. 상기 광학센서(330)는 복수 개일 수 있다. 상기 광학 센서(330)는 상기 물리휠(320) 영역에 일정한 간격으로 배치될 수 있다. 광학센서(330)는 상기 터치패드 영역을 벗어난 사용자의 움직임을 감지할 수 있다. 상기 광학센서(330)는 물리휠 조작 시에도 사용자의 입력을 감지할 수 있다.The optical sensor 330 may be disposed inside the physical wheel 320. The optical sensors 330 may be plural. The optical sensors 330 may be disposed at regular intervals in the region of the physical wheel 320. The optical sensor 330 can sense a movement of a user who is out of the touch pad area. The optical sensor 330 can sense a user's input even when the physical wheel is operated.

도 5는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법의 흐름을 도시한 흐름도이다. FIG. 5 is a flowchart illustrating a method of preventing a false recognition of a touch pad according to an exemplary embodiment of the present invention. Referring to FIG.

도 5를 참조하면, 터치 패드 오인식 방지 방법이 오 인식된 입력 데이터를 처리하는 방법은 터치 패드 입력 감지하는 단계(S410), 광학센서(330)가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계(S420), 마이컴(340)이 상기 광학센서의 필기 입력 여부를 판단하는 단계(S430), 마이컴(340) 터치패드(310)로부터 수신한 입력 데이터와 광학센서(330)로부터 수신한 입력 데이터를 조합하는 단계(S440) 및 상기 조합된 결과 데이터를 헤드유닛(350)으로 전송하는 단계(S450)를 포함할 수 있다.Referring to FIG. 5, a method of processing input data that has been misrecognized by the touch pad mis-detection prevention method includes a step S410 of sensing a touch pad input, a step S410 of detecting a handwriting input of a user out of the touch pad area The input data received from the microcomputer 340 touch pad 310 and the input data received from the optical sensor 330 in step S420, Combining the data (S440), and transmitting the combined result data to the head unit 350 (S450).

터치 패드 입력 감지 단계는 사용자의 필기 입력을 감지할 수 있다(S410). 상기 광학센서(330)가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계(S420)는 상기 광학센서(330)가 물리휠(350)에 위치되어 있기 때문에, 사용자가 상기 물리휠(350) 조작 시에도 광학센서(330)를 통해 입력을 감지할 수 있다.The touchpad input sensing step may sense the handwriting input of the user (S410). Since the optical sensor 330 is located at the physical wheel 350 when the user senses the handwriting input of the user out of the touch pad area at step S420, It is possible to detect the input through the optical sensor 330. [

따라서, 마이컴(340)은 상기 광학센서의 필기 입력 여부를 판단하는 단계를 수행할 수 있다(S420). 상기 마이컴(340)이 필기 입력 여부 판단 방법은 입력된 광학센서(330) 주변의 터치패드에 기 설정된 시간 이전에 입력된 데이터가 있는지 확인하여 판단할 수 있다.Accordingly, the microcomputer 340 may perform a step of determining whether the optical sensor is handwritten (S420). The method of determining whether the microcomputer 340 is handwriting input may determine whether there is data input before a predetermined time in the touch pad around the input optical sensor 330. [

상기 광학센서(330) 주변의 터치패드에 기 설정된 시간 이전에 입력된 데이터가 없는 경우, 마이컴(340)은 상기 광학센서(330)의 입력 데이터를 무시할 수 있다(S435).The microcomputer 340 can ignore the input data of the optical sensor 330 in step S435 if there is no data input in the touch pad around the optical sensor 330 before a preset time.

상기 입력 데이터를 무시하는 경우, 터치 패드 오인식 방지 방법은 상기 광학센서의 입력 감지 단계를 다시 수행할 수 있다.When the input data is ignored, the touch pad mis-recognition prevention method can perform the input sensing step of the optical sensor again.

마이컴(340)이 터치패드 입력 데이터와 광학센서(330) 입력 데이터를 조합하는 단계는 상기 터치패드 입력 데이터와 마이컴(340)에서 받은 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 필기인식 엔진으로 조합하여 전달하여 입력 문자의 결과 데이터를 출력할 수 있다(S440).The step of the microcomputer 340 combining the touch pad input data and the input data of the optical sensor 330 may include inputting the touch pad input data, the touch pad input data received from the microcomputer 340, and the optical sensor input data to a handwriting recognition engine And output the resultant data of the input character (S440).

마이컴(340)은 상기 결과 데이터를 상기 출력된 결과 데이터를 헤드유닛(350)으로 전송할 수 있다(450). 상기 헤드유닛(350)은 상기 결과 데이터를 사용자의 입력 문자로 판단할 수 있다.The microcomputer 340 may transmit the result data to the head unit 350 (450). The head unit 350 may determine the result data as a user's input character.

도 6은 본 발명의 일 실시예에 따른 광학센서를 활용한 사용자 필기 입력의 위치 인식 방법을 나타내는 예시도이다.6 is an exemplary diagram illustrating a method of recognizing a position of a user handwriting input using an optical sensor according to an embodiment of the present invention.

도 6을 참조하면, 터치 패드 오인식 방지 장치는 광학센서를 활용하여 사용자의 사용자 필기 입력 위치를 인식할 수 있다.Referring to FIG. 6, the device for recognizing a touch pad may recognize a user's handwriting input position using an optical sensor.

터치 패드 오인식 방지 장치(200)는 터치 영역을 벗어나 물리휠 영역의 사용자 필기 입력의 움직임을 각 광학센서(331,332,333)가 감지할 수 있다.The touch pad recognition device 200 can detect the movement of the user's handwriting input in the physical wheel area out of the touch area by each of the optical sensors 331, 332, 333.

마이컴(340)은 상기 각각의 광학센서(331,332,333)에 대응하여 센서번호에 대응하여 사용자 필기 입력의 위치를 판단할 수 있다.The microcomputer 340 can determine the position of the user's handwriting input corresponding to the sensor number corresponding to each of the optical sensors 331, 332, 333.

마이컴(340)은 사용자 필기 입력을 감지한 각 광학센서(331,332,333)의 입력을 순차적으로 기억할 수 있다.The microcomputer 340 can sequentially store the inputs of the optical sensors 331, 332, 333 that sense the user's handwriting input.

마이컴(340)은 상기 각 광학센서(331,332,333)의 입력된 순서를 연결한 뒤 그 결과 데이터를 터치패드 입력 데이터와 함께 헤드유닛(350)으로 출력할 수 있다.The microcomputer 340 may connect the inputted order of the optical sensors 331, 332, 333 and output the resultant data to the head unit 350 together with the touchpad input data.

헤드유닛(350)은 상기 마이컴(340)으로부터 수신한 터치패드의 입력 데이터 및 광학센서의 입력 데이터를 필기인식 엔진으로 조합하여 결과 데이터를 출력할 수 있다.The head unit 350 may output the result data by combining the input data of the touch pad received from the microcomputer 340 and the input data of the optical sensor with a handwriting recognition engine.

상기 필기인식 엔진은 상기 결과 데이터에 대응하여, 추가적인 사용자 필기 입력 예측 단계를 뛰어넘어 바로 결과 데이터를 찾을 수 있다.The handwriting recognition engine may be able to find result data directly beyond the additional user handwriting input prediction step, corresponding to the result data.

도 7 내지 9은 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법을 도시한 예시도이다.7 to 9 are diagrams illustrating an example of a method for preventing a misidentification of a touch pad according to an exemplary embodiment of the present invention.

도 7를 참조하면, 터치 패드 오인식 방지 장치는 터치패드(310), 상기 터치패드를 감싸는 물리휠(320), 상기 물리휠의 일부 영역에 배치되는 광학센서(330)를 포함할 수 있다.Referring to FIG. 7, the device for preventing the recognition of the touch pad may include a touch pad 310, a physical wheel 320 surrounding the touch pad, and an optical sensor 330 disposed in a part of the physical wheel.

예를 들어,"감"의 입력 데이터 중 일부가 벗어난 경우, 광학센서(330)는 터치영역에서 벗어난 손가락의 움직임 경로를 취득할 수 있다.For example, when some of the input data of "sense" is out, the optical sensor 330 can acquire the movement path of the finger that is out of the touch area.

사용자가 터치 패드 오인식 방지 장치에"감"이라는 입력 데이터를 입력하고, 상기 입력 문자의 일부가 터치패드 영역 외의 부분에 입력되는 경우, 상기 터치 패드 오인식 방지 장치의 광학센서(330)는 터치패드 영역 외의 부분의 입력을 감지할 수 있다.When a user inputs input data called "sense" to the touch pad recognition system, and the input character is input to a portion outside the touch pad area, the optical sensor 330 of the touch pad mistaken- Can be detected.

이때, 광학센서(330)는 상기 터치패드 영역 외의 부분의 입력을 감지하는 순서에 따라, 제1 광학센서(331), 제2 광학센서(332), 제3 광학센서(333)를 포함할 수 있다.The optical sensor 330 may include a first optical sensor 331, a second optical sensor 332, and a third optical sensor 333 in the order of sensing the input of the portion other than the touch pad region. have.

도 8(a)을 참조하면, 사용자의 손가락이 터치 패드 이외의 부분을 입력하는 경우, 제1 광학센서(331)가 최초로 감지된다. 마이컴(340)은 상기 제1 광학센서(331)에 의해 감지된 제1 입력 데이터(710)를 저장할 수 있다.Referring to FIG. 8 (a), when the user's finger inputs a portion other than the touch pad, the first optical sensor 331 is first detected. The microcomputer 340 may store the first input data 710 sensed by the first optical sensor 331.

도 8(b)을 참조하면, 사용자의 손가락이 제3 광학센서(333)에 감지되고, 이후에 제2 광학센서(332)에 감지될 수 있다. 마이컴(340)은 상기 제2 광학센서 및 제3 광학센서에 의해 감지된 제2 입력 데이터(720)를 저장할 수 있다.Referring to FIG. 8 (b), the finger of the user may be sensed by the third optical sensor 333, and then sensed by the second optical sensor 332. The microcomputer 340 may store the second input data 720 sensed by the second optical sensor and the third optical sensor.

도 8(c)을 참조하면, 사용자의 손가락이 제2 광학센서(332)에 감지될 수 있다. 마이컴(340)은 상기 제2 광학센서 의해 감지된 제3 입력 데이터(730)를 저장할 수 있다.Referring to FIG. 8 (c), the user's finger may be sensed by the second optical sensor 332. The microcomputer 340 may store the third input data 730 sensed by the second optical sensor.

도 9를 참조하면, 헤드유닛(350)은 마이컴(340)으로부터 터치패드를 통해 입력된 데이터(810)와 광학센서(330)를 통해 입력된 데이터 궤적 데이터(820)를 수신할 수 있다.9, the head unit 350 can receive the data 810 input from the microcomputer 340 through the touch pad and the data trajectory data 820 input through the optical sensor 330. FIG.

상기 헤드유닛(350)은 상기 터치패드를 통해 입력된 데이터(810)와 광학센서(330)를 통해 입력된 데이터 궤적 데이터(820)를 위치 및 순서 기반으로 합하여, 결과 데이터(810)을 출력할 수 있다. 이때, 상기 결과 데이터는 필기 인식 엔진에 의하여 "감"이라는 문자로 인식될 수 있다.The head unit 350 combines the data 810 input through the touch pad with the data trajectory data 820 input through the optical sensor 330 based on position and order and outputs the result data 810 . At this time, the result data can be recognized by the handwriting recognition engine as "Sense ".

따라서, 터치 패드 오인식 방지 방법을 활용한 장치는 불필요하게 여러 개의 후보 문자에 대해 고려할 필요가 없게 되고, 사용자의 불필요한 조작에 따라 후보군 중 선택하는 단계를 생략하는 장점이 있다.Therefore, the apparatus using the touch pad mis-recognition prevention method does not need to consider unnecessary plural candidate characters, and there is an advantage of omitting the step of selecting among the candidate groups according to the unnecessary operation of the user.

상술한 일 실시예에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 입력 데이터 저장시스템 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상술한 방법을 구현하기 위한 기능적인(function)프로그램, 코드 및 코드 세그먼트들은 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method according to an embodiment of the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- Tape, floppy disk, and optical input data storage system. The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional program, code, and code segments for implementing the above-described method can be easily inferred by programmers in the technical field to which the embodiment belongs.

310: 터치패드
320: 물리휠
330: 광학센서
340: 마이컴
350: 헤드유닛
310: Touchpad
320: Physical Wheel
330: Optical sensor
340: Microcomputer
350: Head unit

Claims (19)

터치 패드 오인식 방지 방법에 있어서,
터치패드가 사용자의 필기 입력을 감지하는 단계;
광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계;
마이컴이 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 단계; 및
헤드유닛이 상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 단계를 포함하는 터치 패드 오인식 방지 방법.
A method for preventing misreading of a touch pad,
The touch pad detecting a user's handwriting input;
Sensing a handwriting input of a user whose optical sensor is out of the touch pad area;
Storing the touchpad input data and the optical sensor input data by a microcomputer; And
And combining the input data received by the head unit from the microcomputer with a handwriting recognition engine.
제 1항에 있어서,
상기 헤드유닛이 상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 단계는
상기 터치패드를 통해 입력된 데이터와 상기 광학센서를 통해 입력된 사용자의 필기에 대응하는 궤적의 위치 및 순서에 기초하여 결과 데이터를 출력하도록 수행되는 터치 패드 오인식 방지 방법.
The method according to claim 1,
The step of combining the input data received by the head unit from the microcomputer with a handwriting recognition engine
And outputting result data based on the data input through the touch pad and the position and order of the locus corresponding to the handwriting input by the user through the optical sensor.
제 1항에 있어서,
상기 광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계는
상기 광학센서에 대응하여 기 설정된 센서번호에 대응하여 사용자 필기 입력의 위치를 판단하도록 수행되는 터치 패드 오인식 방지 방법.
The method according to claim 1,
Wherein the step of sensing the handwriting input of the user out of the touch pad area by the optical sensor
And detecting a position of a user's handwriting input corresponding to a preset sensor number corresponding to the optical sensor.
제 1항에 있어서,
상기 광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계는
상기 광학센서가 물리휠에 일정한 간격으로 배치되어 사용자의 필기 입력을 감지하도록 수행되는 터치 패드 오인식 방지 방법.
The method according to claim 1,
Wherein the step of sensing the handwriting input of the user out of the touch pad area by the optical sensor
Wherein the optical sensors are disposed at regular intervals on a physical wheel to detect a handwriting input of a user.
제 1항에 있어서,
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.
The method according to claim 1,
Further comprising the step of determining whether or not handwriting input of data input through the optical sensor is performed.
제 5항에 있어서,
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계는
상기 마이컴이 상기 입력 데이터가 필기 입력이 아니라고 판단하는 경우, 상기 광학센서의 입력 데이터를 무시하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.
6. The method of claim 5,
The step of determining whether handwriting input of data inputted through the optical sensor is input
Further comprising ignoring input data of the optical sensor when the microcomputer determines that the input data is not a handwriting input.
제 5항에 있어서,
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계는
상기 입력 데이터가 필기 입력이라고 판단하는 경우, 상기 입력 데이터를 상기 헤드유닛으로 출력하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.
6. The method of claim 5,
The step of determining whether handwriting input of data inputted through the optical sensor is input
And outputting the input data to the head unit when it is determined that the input data is a handwriting input.
제 5항에 있어서,
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계는
상기 입력 데이터가 감지된 광학센서 주변의 터치패드로부터 기 설정된 시간 이전에 입력된 데이터가 있는 경우,
상기 광학센서의 입력 데이터를 필기 입력으로 판단하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.
6. The method of claim 5,
The step of determining whether handwriting input of data inputted through the optical sensor is input
When there is data inputted before a predetermined time from the touch pad around the optical sensor in which the input data is sensed,
Further comprising determining input data of the optical sensor as a handwriting input.
제 1항에 있어서,
상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 단계는
상기 광학센서의 필기 입력 감지 순서에 대응하는 필기 입력 데이터를 순차적으로 저장하도록 수행되는 터치 패드 오인식 방지 방법.
The method according to claim 1,
Wherein the step of storing the touchpad input data and the optical sensor input data comprises:
And sequentially storing handwriting input data corresponding to a handwriting input sensing sequence of the optical sensor.
제 1항 내지 제 9항 중 어느 한 항에 따른 터치 패드 오인식 방지 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 해독 가능 기록 매체.A computer-readable recording medium on which a program for executing the method for preventing a false recognition of a touch pad according to any one of claims 1 to 9 is recorded. 터치 패드 오인식 방지 장치에 있어서,
사용자의 필기 입력을 감지하는 터치패드;
상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 광학센서;
상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 마이컴; 및
상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 헤드유닛을 포함하는 터치 패드 오인식 방지 장치.
A device for preventing recognition of a touch pad,
A touchpad for sensing handwriting input by the user;
An optical sensor for sensing a handwriting input of a user out of the touch pad area;
A microcomputer for storing the touch pad input data and the optical sensor input data; And
And a head unit for combining the input data received from the microcomputer with a handwriting recognition engine.
제 11항에 있어서,
상기 헤드유닛은
상기 터치패드를 통해 입력된 데이터, 상기 광학센서를 통해 입력된 사용자의 필기 입력에 대응하는 궤적의 위치 및 순서에 기초하여 결과 데이터를 출력하는 터치 패드 오인식 방지 장치.
12. The method of claim 11,
The head unit
And outputting result data based on the data input through the touch pad, the position and the order of the locus corresponding to the handwriting input of the user input through the optical sensor.
제 11항에 있어서,
상기 마이컴은
상기 광학센서에 대응하여 기 설정된 센서번호에 대응하여 사용자 필기 입력의 위치를 판단하는 터치 패드 오인식 방지 장치.
12. The method of claim 11,
The microcomputer
And the position of the user's handwriting input is determined corresponding to the predetermined sensor number corresponding to the optical sensor.
제 11항에 있어서,
상기 광학센서를 포함하는 물리휠을 더 포함하고,
상기 광학센서는 상기 물리휠에 일정한 간격으로 배치되어 사용자의 필기 입력을 감지하는 터치 패드 오인식 방지 장치.
12. The method of claim 11,
Further comprising a physical wheel comprising said optical sensor,
Wherein the optical sensor is disposed at a predetermined interval on the physical wheel to sense handwriting input by the user.
제 11항에 있어서,
상기 마이컴은
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 터치 패드 오인식 방지 장치.
12. The method of claim 11,
The microcomputer
And determines whether the data input through the optical sensor is handwritten or not.
제 15항에 있어서,
상기 마이컴은
상기 입력 데이터가 필기 입력이 아니라고 판단하는 경우,
입력 데이터를 무시하는 터치 패드 오인식 방지 장치.
16. The method of claim 15,
The microcomputer
If it is determined that the input data is not the handwriting input,
A touchpad false alarm device that ignores input data.
제 15항에 있어서,
상기 마이컴은
상기 입력 데이터가 필기 입력이라고 판단하는 경우,
상기 입력 데이터를 상기 헤드유닛으로 출력하는 터치 패드 오인식 방지 장치.
16. The method of claim 15,
The microcomputer
If it is determined that the input data is a handwriting input,
And outputs the input data to the head unit.
제 15항에 있어서,
상기 마이컴은
상기 입력 데이터가 감지된 광학센서 주변의 터치패드로부터 기 설정된 시간 이전에 입력된 데이터가 있는 경우,
상기 광학센서의 입력 데이터를 필기 입력으로 판단하는 터치 패드 오인식 방지 장치.
16. The method of claim 15,
The microcomputer
When there is data inputted before a predetermined time from the touch pad around the optical sensor in which the input data is sensed,
And determines input data of the optical sensor as handwriting input.
제 11항에 있어서,
상기 마이컴은
상기 광학센서의 필기 입력 감지 순서에 대응하는 필기 입력 데이터를 순차적으로 저장하는 터치 패드 오인식 방지 장치.
12. The method of claim 11,
The microcomputer
And sequentially stores handwriting input data corresponding to a handwriting input sensing sequence of the optical sensor.
KR1020170063561A 2017-05-23 2017-05-23 Methods and apparatus for preventing misreading of touch pad KR102355422B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170063561A KR102355422B1 (en) 2017-05-23 2017-05-23 Methods and apparatus for preventing misreading of touch pad

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170063561A KR102355422B1 (en) 2017-05-23 2017-05-23 Methods and apparatus for preventing misreading of touch pad

Publications (2)

Publication Number Publication Date
KR20180128246A true KR20180128246A (en) 2018-12-03
KR102355422B1 KR102355422B1 (en) 2022-01-26

Family

ID=64743096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170063561A KR102355422B1 (en) 2017-05-23 2017-05-23 Methods and apparatus for preventing misreading of touch pad

Country Status (1)

Country Link
KR (1) KR102355422B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150067926A (en) * 2013-12-10 2015-06-19 현대자동차주식회사 System and method for operating unit support of vehicle
KR20160128994A (en) * 2014-03-03 2016-11-08 마이크로칩 테크놀로지 인코포레이티드 System and method for gesture control
JP2017010241A (en) * 2015-06-22 2017-01-12 セイコーエプソン株式会社 Image display system and image display method
KR20170027595A (en) * 2015-09-02 2017-03-10 주식회사 서연전자 Switch apparatus for a multimedia equipment of automobile

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150067926A (en) * 2013-12-10 2015-06-19 현대자동차주식회사 System and method for operating unit support of vehicle
KR20160128994A (en) * 2014-03-03 2016-11-08 마이크로칩 테크놀로지 인코포레이티드 System and method for gesture control
JP2017010241A (en) * 2015-06-22 2017-01-12 セイコーエプソン株式会社 Image display system and image display method
KR20170027595A (en) * 2015-09-02 2017-03-10 주식회사 서연전자 Switch apparatus for a multimedia equipment of automobile

Also Published As

Publication number Publication date
KR102355422B1 (en) 2022-01-26

Similar Documents

Publication Publication Date Title
JP4650699B2 (en) Input device, input method, and program
US20180341360A1 (en) Method For Launching Application And Terminal Device
KR101978687B1 (en) Method for inputting a character in touch screen terminal and apparatus thereof
US10409412B1 (en) Multi-input element for electronic device
US7631123B2 (en) KVM switch for switching among computers by employing mouse movement signal and method thereof
US9361022B2 (en) Character input apparatus
KR20140145579A (en) Classifying the intent of user input
JP6144501B2 (en) Display device and display method
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
US20160162143A1 (en) Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium
US20060077182A1 (en) Methods and systems for providing user selectable touch screen functionality
KR101369595B1 (en) A display apparatus providing user menu interface and a method of display appratus to provide user menu interface
US20140028595A1 (en) Multi-touch based drawing input method and apparatus
US20120026092A1 (en) Touch mouse operation method
US20140210739A1 (en) Operation receiver
KR20180128246A (en) Methods and apparatus for preventing misreading of touch pad
CN111901534A (en) Audio and video segmentation interaction method, device, equipment and storage medium
KR100963228B1 (en) Apparatus for inputting touch signal
US20120242587A1 (en) Character recognition system
US10203774B1 (en) Handheld device and control method thereof
US11938823B2 (en) Operating unit comprising a touch-sensitive operating area
KR101654694B1 (en) Electronics apparatus control method for automobile using hand gesture and motion detection device implementing the same
KR102311294B1 (en) Method of determining input for elevator button, button input decision device and button input decision system performing method
KR20160068054A (en) Apparatus for Correcting Input-Coordinate of Touch screen and Correction Method Thereof
US8712717B2 (en) Computer device with digitizer calibration system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right