KR20180128246A - Methods and apparatus for preventing misreading of touch pad - Google Patents
Methods and apparatus for preventing misreading of touch pad Download PDFInfo
- Publication number
- KR20180128246A KR20180128246A KR1020170063561A KR20170063561A KR20180128246A KR 20180128246 A KR20180128246 A KR 20180128246A KR 1020170063561 A KR1020170063561 A KR 1020170063561A KR 20170063561 A KR20170063561 A KR 20170063561A KR 20180128246 A KR20180128246 A KR 20180128246A
- Authority
- KR
- South Korea
- Prior art keywords
- input
- optical sensor
- touch pad
- data
- handwriting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0362—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G06K9/20—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/226—Character recognition characterised by the type of writing of cursive writing
Abstract
Description
본 발명은 터치 패드 오인식 방지 방법 및 장치에 관한 것으로, 더욱 상세하게는 AVN(Audio Video Navigation) 입력장치 사용 시 중앙 터치패드가 필기 오인식을 보완하기 위한 터치 패드 오인식 방지 방법 및 장치에 관한 것이다.[0001] The present invention relates to a method and an apparatus for preventing a misunderstanding of a touch pad, and more particularly, to a method and an apparatus for preventing a misunderstanding of a touch pad by using a central touch pad when the AVN (Audio Video Navigation) input device is used.
종래의 기술은 오목형 조작계 중앙의 터치 패드는 사용자의 필기 입력을 받아 인식하는 기능을 한다. 상기 오목형 중앙 집중식 조작계의 경우 사용자가 실제 조작계를 보지 않고 조작하게 되고, 중앙의 터치 패드 면을 보지 않고 필기 입력을 하다 보면 오인식의 가능성이 높아진다.Conventionally, the touch pad in the center of the concave type operating system has a function of recognizing the handwriting input by the user. In the case of the concave centralized operating system, the user operates without looking at the actual operating system, and if the handwriting input is performed without looking at the center touch pad surface, the possibility of false recognition increases.
도 1 및 도 2는 종래 발명의 일 실시예에 따른 터치패드의 개요를 나타낸 도면이다.1 and 2 are views showing an outline of a touch pad according to an embodiment of the present invention.
도 1(a)를 참조하면, 종래 발명의 터치 패드 장치(100)는 터치패드 영역(110), 물리휠(120)을 포함할 수 있다. 상기 터치 패드(110)는 상기 터치패드는 터치 패드 오인식 방지 장치의 중앙에 배치될 수 있다. 물리휠(120)은 상기 터치패드(110)를 감싸도록 배치될 수 있다. 상기 물리휠(120)은 상기 터치패드와 경사를 이루도록 배치될 수 있다.Referring to FIG. 1 (a), a conventional
종래 발명의 경우, 사용자가 터치패드를 보지 않고 필기 입력 중 차량 이동, 흔들림 등에 의해 터치 패드 영역 외의 부분(1300)에 필기 입력을 할 경우, 오인식이 발생할 수 있다.In the case of the conventional invention, when a user performs handwriting input to a portion 1300 outside the touch pad area by moving or moving the vehicle during handwriting input without looking at the touch pad, a false sense may occur.
예를 들어, 도 1(b)와 같이 사용자가 "감"이라는 입력 데이터를 입력을 하였으나, 상기 입력 문자의 일부가 터치패드 영역 외의 부분(130)에 입력되어, 오인식이 발생할 수 있다. 예를 들어, 상기 필기 입력이 오인식 되는 경우, "감" 이라는 입력 데이터를 "가" 또는 "간" 등 다른 입력 데이터로 인식할 수 있다.For example, as shown in FIG. 1 (b), the user inputs the input data "sense", but a part of the input character is input to the
도 2에 도시된 바와 같이, 종래 발명의 터치 패드 장치(100)는 "감"이라는 입력문자의 일부 데이터를 수신할 수 있다(S210). 상기 일부 데이터는 터치패드 영역에 인식된 문자의 일부 일 수 있다.As shown in FIG. 2, the
상기 입력 데이터가 수신되는 경우, 터치 패드 장치(100)는 필기 인식 엔진에 상기 입력문자의 일부 데이터를 입력할 수 있다(S220).When the input data is received, the
상기 필기 인식 엔진은 상기 입력문자의 일부 데이터 입력 시 입력이 완료되지 않은 영역을 유추하여 사용자에게 여러 개의 후보 문자를 출력할 수 있다(S230). 사용자는 상기 여러 개의 후보 문자 중 하나를 선택할 수 있다(S240).The handwriting recognition engine may infer an area in which input is not completed when a partial data of the input character is input, and output a plurality of candidate characters to the user (S230). The user can select one of the plurality of candidate characters (S240).
하지만, 종래 발명의 터치 패드 장치는 상기와 같이 필기인식 엔진의 성능만으로는 입력글자 인식에 대한 빠른 시스템 반응속도를 구현하기 어려우며, 여러 개의 후보 리스트를 사용자에게 전달하여 그 중 하나를 선택하여 대기시간이 새기는 문제점이 있다.However, according to the conventional touch pad device, it is difficult to realize a fast system response speed for input character recognition only by the performance of the handwriting recognition engine as described above, and a plurality of candidate lists are delivered to the user, There is a problem of engraving.
본 발명에서는 상술한 종래 기술의 문제점을 해결하기 위해 고안된 것으로, 본 발명의 목적은 터치 패드 오인식 방지 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the related art, and it is an object of the present invention to provide a method and an apparatus for preventing a touch pad misrecognition.
더욱 상세하게, 본 발명은 사용자가 터치 패드 영역을 벗어나게 입력하는 경우에 오인식을 방지하기 위하여, 물리휠에 광학센서를 설치하여 사용자의 입력을 감지하는 터치 패드 오인식 방지 방법 및 장치를 제공하는 데 그 목적이 있다.More specifically, the present invention provides a method and an apparatus for preventing a false recognition of a user's touch by providing an optical sensor on a physical wheel to detect a user's input, in order to prevent a mistaken typing when a user enters an area out of the touch pad area. There is a purpose.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.
상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법은 터치패드가 사용자의 필기 입력을 감지하는 단계, 광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계, 마이컴이 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 단계 및 헤드유닛이 상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for preventing a misunderstanding of a touch pad, including the steps of sensing a handwriting input of a user by a touch pad, inputting a handwriting input of a user out of the touch pad area, Storing the touch pad input data and the optical sensor input data in a microcomputer, and combining the input data received from the microcomputer with a handwriting recognition engine.
또한, 본 발명의 일 실시예에 따른 사용자의 필기 입력을 감지하는 터치패드, 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 광학센서, 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 마이컴 및상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 헤드유닛을 포함할 수 있다.In addition, according to an exemplary embodiment of the present invention, a touch pad that senses a handwriting input of a user, an optical sensor that senses a handwriting input of a user who is out of the touch pad area, And a head unit for combining input data received from the microcomputer and the microcomputer into a handwriting recognition engine.
본 발명에 따른 터치 패드 오인식 방지 방법 및 장치에 대한 효과를 설명하면 다음과 같다.The effect of the method and apparatus for preventing the misreading of the touch pad according to the present invention will be described as follows.
첫째, 오목형 조작계는 사용자가 조작계를 보지 않고 입력하는 방식이므로, 터치패드 외의 영역에 필기 입력이 발생할 소지가 다분하며, 특히 주행 중에는 잦은 영역 이탈이 예상되므로, 해당 상황 발생 시에도 고객의 의도대로 인식하여 고객 사용성을 향상하는 장점이 있다.First, since the concave type operating system is a method of inputting without looking at the operating system, handwriting input is likely to occur in areas other than the touch pad, and in particular, frequent departures are expected during driving. Therefore, And to improve customer usability.
둘째, 새로운 접근인 오목형 조작계의 취약점을 보완하여, 좀 더 발전적으로 고객지향적인 지능화된 입력장치라는 이미지를 강하게 출력하는 장점이 있다.Second, it complements the weak point of the new approach, the concave type operating system, and has the advantage of outputting the image as a more advanced and customer-oriented intelligent input device.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.
도1 내지 2는 종래 발명의 일 실시예에 따른 터치패드를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 장치의 개요를 나타낸 도면이다.
도 4는 본발명의 일 실시예에 따른 터치 패드 오인식 방지 장치의 외견을 도시한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법의 흐름을 도시한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 광학센서를 활용한 사용자 필기 입력의 위치 인식 방법을 나타내는 예시도이다.
도 7 내지 9는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법을 설명하기 위한 예시도이다.1 and 2 are views for explaining a touch pad according to an embodiment of the present invention.
3 is a diagram illustrating an outline of a device for preventing a false recognition of a touch pad according to an embodiment of the present invention.
4 is an exemplary view showing an appearance of a device for preventing the recognition of a touch pad according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method of preventing a false recognition of a touch pad according to an exemplary embodiment of the present invention. Referring to FIG.
6 is an exemplary diagram illustrating a method of recognizing a position of a user handwriting input using an optical sensor according to an embodiment of the present invention.
7 to 9 are diagrams for explaining a method for preventing a touch pad mis-recognition according to an embodiment of the present invention.
이하, 본 발명의 실시예들이 적용되는 장치 및 다양한 방법들에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and various methods to which embodiments of the present invention are applied will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
실시예의 설명에 있어서, 각 구성 요소의 " 상(위) 또는 하(아래)", "전(앞) 또는 후(뒤)"에 형성되는 것으로 기재되는 경우에 있어, "상(위) 또는 하(아래)" 및"전(앞) 또는 후(뒤)"는 두 개의 구성 요소들이 서로 직접 접촉되거나 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 배치되어 형성되는 것을 모두 포함한다.In the description of the embodiment, in the case of being described as being formed on the "upper or lower", "before" or "after" of each component, (Lower) "and" front or rear "encompass both that the two components are in direct contact with each other or that one or more other components are disposed between the two components.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성 요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
본 발명의 실시예들은 오목형 조작계 중앙의 터치 패드는 사용자의 필기 입력을 받는 경우, 물리휠에 설치된 광학센서를 통해 터치 패드 영역을 벗어난 필기를 인식하여, 사용자가 터치 패드 영역을 벗어나게 입력하는 경우에 오인식을 방지 할 수 있는 방법 및 장치에 관한 것이다.In the embodiments of the present invention, when the touch pad at the center of the concave type operating system receives a handwriting input from the user, the handwriting out of the touch pad area is recognized through the optical sensor installed on the physical wheel, and when the user inputs the handwriting out of the touch pad area The present invention relates to a method and an apparatus capable of preventing erroneous recognition.
도 3 및 4 는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 장치 의 개요를 나타낸 도면이다.3 and 4 are views showing an overview of a device for preventing the recognition of a touch pad according to an embodiment of the present invention.
도 3을 참조하면, 터치 패드 오인식 방지 장치는 터치패드(310), 물리휠(320), 광학센서(330), 마이컴(340) 및 헤드유닛(350)을 포함할 수 있다.Referring to FIG. 3, the touch pad recognition device includes a
터치패드(310)는 사용자의 터치 입력을 전기적 신호로 전환할 수 있다.The
상기 터치패드(310)는 사용자에 의해 명령이 입력되는 부위이고, 예를 들어 정전식 터치스크린 패널로 구비될 수 있다. 상기 터치패드(310)는 사용자의 필기 입력을 감지할 수 있다.The
물리휠(320)은 사용자의 조작에 대응하여 사용자의 입력을 출력할 수 있다. 상기 물리휠(320)은 버튼, 조그휠, 스위치 등을 포함할 수 있다.The
광학센서(330)는 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 상기 광학센서(330)는 포토센서, 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.The
마이컴(340)은 상기 사용자의 입력을 감지한 광학센서(330)의 입력을 순차적으로 기억할 수 있다. 상기 마이컴(340)은 상기 광학센서(330)를 통해 입력된 데이터의 필기 입력 여부 판단할 수 있다. 상기 마이컴(340)은 상기 입력 데이터가 필기 입력이 아니라고 판단하는 경우 입력 데이터를 무시할 수 있다. 상기 마이컴(340)은 입력 데이터가 입력된 광학센서(330) 주변의 터치패드(310)에 기 설정된 시간 이전에 입력된 데이터가 있는 경우 필기 입력으로 판단할 수 있다.The
헤드유닛(350)은 상기 마이컴(340)으로부터 수신한 데이터를 필기인식 엔진으로 조합하여 전달할 수 있다. 상기 헤드유닛(350)은 상기 터치패드(310)를 통해 입력된 데이터, 상기 광학센서(330)를 통해 입력된 사용자의 필기에 대응하는 궤적의 위치 및 순서에 기초하여 결과 데이터를 출력할 수 있다. 상기 헤드유닛(350)은 상기 마이컴(340)에서 입력받은 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 필기인식 엔진으로 조합하여 전달할 수 있다. 상기 헤드유닛(350)은 필기인식 엔진에서 추가적인 사용자 필기 입력 예측 단계를 뛰어넘어 바로 결과 데이터를 찾을 수 있다.The
도 4(a) 및 4(b)를 참조하면, 터치패드(310)는 터치 패드 오인식 방지 장치의 중앙에 배치될 수 있다. 상기 터치패드(310)는 원형으로 형성될 수 있다.Referring to FIGS. 4 (a) and 4 (b), the
물리휠(320)은 상기 터치패드(310)를 감싸도록 배치될 수 있다. 상기 터치패드는(310)는 상기 물리휠(320)의 하단부분과 결합 될 수 있다. 상기 물리휠(320)은 상기 터치패드(310)와 경사를 이루도록 배치될 수 있다. 이를 통해 상기 터치 패드(310)가 오목한 형태로 상기 물리휠(320)과 결합 될 수 있다.The
광학센서(330)는 상기 물리휠(320)에 내부에 배치될 수 있다. 상기 광학센서(330)는 복수 개일 수 있다. 상기 광학 센서(330)는 상기 물리휠(320) 영역에 일정한 간격으로 배치될 수 있다. 광학센서(330)는 상기 터치패드 영역을 벗어난 사용자의 움직임을 감지할 수 있다. 상기 광학센서(330)는 물리휠 조작 시에도 사용자의 입력을 감지할 수 있다.The
도 5는 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법의 흐름을 도시한 흐름도이다. FIG. 5 is a flowchart illustrating a method of preventing a false recognition of a touch pad according to an exemplary embodiment of the present invention. Referring to FIG.
도 5를 참조하면, 터치 패드 오인식 방지 방법이 오 인식된 입력 데이터를 처리하는 방법은 터치 패드 입력 감지하는 단계(S410), 광학센서(330)가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계(S420), 마이컴(340)이 상기 광학센서의 필기 입력 여부를 판단하는 단계(S430), 마이컴(340) 터치패드(310)로부터 수신한 입력 데이터와 광학센서(330)로부터 수신한 입력 데이터를 조합하는 단계(S440) 및 상기 조합된 결과 데이터를 헤드유닛(350)으로 전송하는 단계(S450)를 포함할 수 있다.Referring to FIG. 5, a method of processing input data that has been misrecognized by the touch pad mis-detection prevention method includes a step S410 of sensing a touch pad input, a step S410 of detecting a handwriting input of a user out of the touch pad area The input data received from the
터치 패드 입력 감지 단계는 사용자의 필기 입력을 감지할 수 있다(S410). 상기 광학센서(330)가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계(S420)는 상기 광학센서(330)가 물리휠(350)에 위치되어 있기 때문에, 사용자가 상기 물리휠(350) 조작 시에도 광학센서(330)를 통해 입력을 감지할 수 있다.The touchpad input sensing step may sense the handwriting input of the user (S410). Since the
따라서, 마이컴(340)은 상기 광학센서의 필기 입력 여부를 판단하는 단계를 수행할 수 있다(S420). 상기 마이컴(340)이 필기 입력 여부 판단 방법은 입력된 광학센서(330) 주변의 터치패드에 기 설정된 시간 이전에 입력된 데이터가 있는지 확인하여 판단할 수 있다.Accordingly, the
상기 광학센서(330) 주변의 터치패드에 기 설정된 시간 이전에 입력된 데이터가 없는 경우, 마이컴(340)은 상기 광학센서(330)의 입력 데이터를 무시할 수 있다(S435).The
상기 입력 데이터를 무시하는 경우, 터치 패드 오인식 방지 방법은 상기 광학센서의 입력 감지 단계를 다시 수행할 수 있다.When the input data is ignored, the touch pad mis-recognition prevention method can perform the input sensing step of the optical sensor again.
마이컴(340)이 터치패드 입력 데이터와 광학센서(330) 입력 데이터를 조합하는 단계는 상기 터치패드 입력 데이터와 마이컴(340)에서 받은 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 필기인식 엔진으로 조합하여 전달하여 입력 문자의 결과 데이터를 출력할 수 있다(S440).The step of the
마이컴(340)은 상기 결과 데이터를 상기 출력된 결과 데이터를 헤드유닛(350)으로 전송할 수 있다(450). 상기 헤드유닛(350)은 상기 결과 데이터를 사용자의 입력 문자로 판단할 수 있다.The
도 6은 본 발명의 일 실시예에 따른 광학센서를 활용한 사용자 필기 입력의 위치 인식 방법을 나타내는 예시도이다.6 is an exemplary diagram illustrating a method of recognizing a position of a user handwriting input using an optical sensor according to an embodiment of the present invention.
도 6을 참조하면, 터치 패드 오인식 방지 장치는 광학센서를 활용하여 사용자의 사용자 필기 입력 위치를 인식할 수 있다.Referring to FIG. 6, the device for recognizing a touch pad may recognize a user's handwriting input position using an optical sensor.
터치 패드 오인식 방지 장치(200)는 터치 영역을 벗어나 물리휠 영역의 사용자 필기 입력의 움직임을 각 광학센서(331,332,333)가 감지할 수 있다.The touch pad recognition device 200 can detect the movement of the user's handwriting input in the physical wheel area out of the touch area by each of the
마이컴(340)은 상기 각각의 광학센서(331,332,333)에 대응하여 센서번호에 대응하여 사용자 필기 입력의 위치를 판단할 수 있다.The
마이컴(340)은 사용자 필기 입력을 감지한 각 광학센서(331,332,333)의 입력을 순차적으로 기억할 수 있다.The
마이컴(340)은 상기 각 광학센서(331,332,333)의 입력된 순서를 연결한 뒤 그 결과 데이터를 터치패드 입력 데이터와 함께 헤드유닛(350)으로 출력할 수 있다.The
헤드유닛(350)은 상기 마이컴(340)으로부터 수신한 터치패드의 입력 데이터 및 광학센서의 입력 데이터를 필기인식 엔진으로 조합하여 결과 데이터를 출력할 수 있다.The
상기 필기인식 엔진은 상기 결과 데이터에 대응하여, 추가적인 사용자 필기 입력 예측 단계를 뛰어넘어 바로 결과 데이터를 찾을 수 있다.The handwriting recognition engine may be able to find result data directly beyond the additional user handwriting input prediction step, corresponding to the result data.
도 7 내지 9은 본 발명의 일 실시예에 따른 터치 패드 오인식 방지 방법을 도시한 예시도이다.7 to 9 are diagrams illustrating an example of a method for preventing a misidentification of a touch pad according to an exemplary embodiment of the present invention.
도 7를 참조하면, 터치 패드 오인식 방지 장치는 터치패드(310), 상기 터치패드를 감싸는 물리휠(320), 상기 물리휠의 일부 영역에 배치되는 광학센서(330)를 포함할 수 있다.Referring to FIG. 7, the device for preventing the recognition of the touch pad may include a
예를 들어,"감"의 입력 데이터 중 일부가 벗어난 경우, 광학센서(330)는 터치영역에서 벗어난 손가락의 움직임 경로를 취득할 수 있다.For example, when some of the input data of "sense" is out, the
사용자가 터치 패드 오인식 방지 장치에"감"이라는 입력 데이터를 입력하고, 상기 입력 문자의 일부가 터치패드 영역 외의 부분에 입력되는 경우, 상기 터치 패드 오인식 방지 장치의 광학센서(330)는 터치패드 영역 외의 부분의 입력을 감지할 수 있다.When a user inputs input data called "sense" to the touch pad recognition system, and the input character is input to a portion outside the touch pad area, the
이때, 광학센서(330)는 상기 터치패드 영역 외의 부분의 입력을 감지하는 순서에 따라, 제1 광학센서(331), 제2 광학센서(332), 제3 광학센서(333)를 포함할 수 있다.The
도 8(a)을 참조하면, 사용자의 손가락이 터치 패드 이외의 부분을 입력하는 경우, 제1 광학센서(331)가 최초로 감지된다. 마이컴(340)은 상기 제1 광학센서(331)에 의해 감지된 제1 입력 데이터(710)를 저장할 수 있다.Referring to FIG. 8 (a), when the user's finger inputs a portion other than the touch pad, the first
도 8(b)을 참조하면, 사용자의 손가락이 제3 광학센서(333)에 감지되고, 이후에 제2 광학센서(332)에 감지될 수 있다. 마이컴(340)은 상기 제2 광학센서 및 제3 광학센서에 의해 감지된 제2 입력 데이터(720)를 저장할 수 있다.Referring to FIG. 8 (b), the finger of the user may be sensed by the third
도 8(c)을 참조하면, 사용자의 손가락이 제2 광학센서(332)에 감지될 수 있다. 마이컴(340)은 상기 제2 광학센서 의해 감지된 제3 입력 데이터(730)를 저장할 수 있다.Referring to FIG. 8 (c), the user's finger may be sensed by the second
도 9를 참조하면, 헤드유닛(350)은 마이컴(340)으로부터 터치패드를 통해 입력된 데이터(810)와 광학센서(330)를 통해 입력된 데이터 궤적 데이터(820)를 수신할 수 있다.9, the
상기 헤드유닛(350)은 상기 터치패드를 통해 입력된 데이터(810)와 광학센서(330)를 통해 입력된 데이터 궤적 데이터(820)를 위치 및 순서 기반으로 합하여, 결과 데이터(810)을 출력할 수 있다. 이때, 상기 결과 데이터는 필기 인식 엔진에 의하여 "감"이라는 문자로 인식될 수 있다.The
따라서, 터치 패드 오인식 방지 방법을 활용한 장치는 불필요하게 여러 개의 후보 문자에 대해 고려할 필요가 없게 되고, 사용자의 불필요한 조작에 따라 후보군 중 선택하는 단계를 생략하는 장점이 있다.Therefore, the apparatus using the touch pad mis-recognition prevention method does not need to consider unnecessary plural candidate characters, and there is an advantage of omitting the step of selecting among the candidate groups according to the unnecessary operation of the user.
상술한 일 실시예에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 입력 데이터 저장시스템 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상술한 방법을 구현하기 위한 기능적인(function)프로그램, 코드 및 코드 세그먼트들은 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method according to an embodiment of the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- Tape, floppy disk, and optical input data storage system. The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional program, code, and code segments for implementing the above-described method can be easily inferred by programmers in the technical field to which the embodiment belongs.
310: 터치패드
320: 물리휠
330: 광학센서
340: 마이컴
350: 헤드유닛310: Touchpad
320: Physical Wheel
330: Optical sensor
340: Microcomputer
350: Head unit
Claims (19)
터치패드가 사용자의 필기 입력을 감지하는 단계;
광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계;
마이컴이 상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 단계; 및
헤드유닛이 상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 단계를 포함하는 터치 패드 오인식 방지 방법.A method for preventing misreading of a touch pad,
The touch pad detecting a user's handwriting input;
Sensing a handwriting input of a user whose optical sensor is out of the touch pad area;
Storing the touchpad input data and the optical sensor input data by a microcomputer; And
And combining the input data received by the head unit from the microcomputer with a handwriting recognition engine.
상기 헤드유닛이 상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 단계는
상기 터치패드를 통해 입력된 데이터와 상기 광학센서를 통해 입력된 사용자의 필기에 대응하는 궤적의 위치 및 순서에 기초하여 결과 데이터를 출력하도록 수행되는 터치 패드 오인식 방지 방법.The method according to claim 1,
The step of combining the input data received by the head unit from the microcomputer with a handwriting recognition engine
And outputting result data based on the data input through the touch pad and the position and order of the locus corresponding to the handwriting input by the user through the optical sensor.
상기 광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계는
상기 광학센서에 대응하여 기 설정된 센서번호에 대응하여 사용자 필기 입력의 위치를 판단하도록 수행되는 터치 패드 오인식 방지 방법.The method according to claim 1,
Wherein the step of sensing the handwriting input of the user out of the touch pad area by the optical sensor
And detecting a position of a user's handwriting input corresponding to a preset sensor number corresponding to the optical sensor.
상기 광학센서가 상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 단계는
상기 광학센서가 물리휠에 일정한 간격으로 배치되어 사용자의 필기 입력을 감지하도록 수행되는 터치 패드 오인식 방지 방법.The method according to claim 1,
Wherein the step of sensing the handwriting input of the user out of the touch pad area by the optical sensor
Wherein the optical sensors are disposed at regular intervals on a physical wheel to detect a handwriting input of a user.
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.The method according to claim 1,
Further comprising the step of determining whether or not handwriting input of data input through the optical sensor is performed.
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계는
상기 마이컴이 상기 입력 데이터가 필기 입력이 아니라고 판단하는 경우, 상기 광학센서의 입력 데이터를 무시하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.6. The method of claim 5,
The step of determining whether handwriting input of data inputted through the optical sensor is input
Further comprising ignoring input data of the optical sensor when the microcomputer determines that the input data is not a handwriting input.
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계는
상기 입력 데이터가 필기 입력이라고 판단하는 경우, 상기 입력 데이터를 상기 헤드유닛으로 출력하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.6. The method of claim 5,
The step of determining whether handwriting input of data inputted through the optical sensor is input
And outputting the input data to the head unit when it is determined that the input data is a handwriting input.
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 단계는
상기 입력 데이터가 감지된 광학센서 주변의 터치패드로부터 기 설정된 시간 이전에 입력된 데이터가 있는 경우,
상기 광학센서의 입력 데이터를 필기 입력으로 판단하는 단계를 더 포함하는 터치 패드 오인식 방지 방법.6. The method of claim 5,
The step of determining whether handwriting input of data inputted through the optical sensor is input
When there is data inputted before a predetermined time from the touch pad around the optical sensor in which the input data is sensed,
Further comprising determining input data of the optical sensor as a handwriting input.
상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 단계는
상기 광학센서의 필기 입력 감지 순서에 대응하는 필기 입력 데이터를 순차적으로 저장하도록 수행되는 터치 패드 오인식 방지 방법.The method according to claim 1,
Wherein the step of storing the touchpad input data and the optical sensor input data comprises:
And sequentially storing handwriting input data corresponding to a handwriting input sensing sequence of the optical sensor.
사용자의 필기 입력을 감지하는 터치패드;
상기 터치패드 영역을 벗어난 사용자의 필기 입력을 감지하는 광학센서;
상기 터치패드 입력 데이터와 상기 광학센서 입력 데이터를 저장하는 마이컴; 및
상기 마이컴으로부터 수신한 입력 데이터를 필기인식 엔진으로 조합하는 헤드유닛을 포함하는 터치 패드 오인식 방지 장치.A device for preventing recognition of a touch pad,
A touchpad for sensing handwriting input by the user;
An optical sensor for sensing a handwriting input of a user out of the touch pad area;
A microcomputer for storing the touch pad input data and the optical sensor input data; And
And a head unit for combining the input data received from the microcomputer with a handwriting recognition engine.
상기 헤드유닛은
상기 터치패드를 통해 입력된 데이터, 상기 광학센서를 통해 입력된 사용자의 필기 입력에 대응하는 궤적의 위치 및 순서에 기초하여 결과 데이터를 출력하는 터치 패드 오인식 방지 장치.12. The method of claim 11,
The head unit
And outputting result data based on the data input through the touch pad, the position and the order of the locus corresponding to the handwriting input of the user input through the optical sensor.
상기 마이컴은
상기 광학센서에 대응하여 기 설정된 센서번호에 대응하여 사용자 필기 입력의 위치를 판단하는 터치 패드 오인식 방지 장치.12. The method of claim 11,
The microcomputer
And the position of the user's handwriting input is determined corresponding to the predetermined sensor number corresponding to the optical sensor.
상기 광학센서를 포함하는 물리휠을 더 포함하고,
상기 광학센서는 상기 물리휠에 일정한 간격으로 배치되어 사용자의 필기 입력을 감지하는 터치 패드 오인식 방지 장치.12. The method of claim 11,
Further comprising a physical wheel comprising said optical sensor,
Wherein the optical sensor is disposed at a predetermined interval on the physical wheel to sense handwriting input by the user.
상기 마이컴은
상기 광학센서를 통해 입력된 데이터의 필기 입력 여부 판단하는 터치 패드 오인식 방지 장치.12. The method of claim 11,
The microcomputer
And determines whether the data input through the optical sensor is handwritten or not.
상기 마이컴은
상기 입력 데이터가 필기 입력이 아니라고 판단하는 경우,
입력 데이터를 무시하는 터치 패드 오인식 방지 장치.16. The method of claim 15,
The microcomputer
If it is determined that the input data is not the handwriting input,
A touchpad false alarm device that ignores input data.
상기 마이컴은
상기 입력 데이터가 필기 입력이라고 판단하는 경우,
상기 입력 데이터를 상기 헤드유닛으로 출력하는 터치 패드 오인식 방지 장치.16. The method of claim 15,
The microcomputer
If it is determined that the input data is a handwriting input,
And outputs the input data to the head unit.
상기 마이컴은
상기 입력 데이터가 감지된 광학센서 주변의 터치패드로부터 기 설정된 시간 이전에 입력된 데이터가 있는 경우,
상기 광학센서의 입력 데이터를 필기 입력으로 판단하는 터치 패드 오인식 방지 장치.16. The method of claim 15,
The microcomputer
When there is data inputted before a predetermined time from the touch pad around the optical sensor in which the input data is sensed,
And determines input data of the optical sensor as handwriting input.
상기 마이컴은
상기 광학센서의 필기 입력 감지 순서에 대응하는 필기 입력 데이터를 순차적으로 저장하는 터치 패드 오인식 방지 장치.12. The method of claim 11,
The microcomputer
And sequentially stores handwriting input data corresponding to a handwriting input sensing sequence of the optical sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170063561A KR102355422B1 (en) | 2017-05-23 | 2017-05-23 | Methods and apparatus for preventing misreading of touch pad |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170063561A KR102355422B1 (en) | 2017-05-23 | 2017-05-23 | Methods and apparatus for preventing misreading of touch pad |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180128246A true KR20180128246A (en) | 2018-12-03 |
KR102355422B1 KR102355422B1 (en) | 2022-01-26 |
Family
ID=64743096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170063561A KR102355422B1 (en) | 2017-05-23 | 2017-05-23 | Methods and apparatus for preventing misreading of touch pad |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102355422B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150067926A (en) * | 2013-12-10 | 2015-06-19 | 현대자동차주식회사 | System and method for operating unit support of vehicle |
KR20160128994A (en) * | 2014-03-03 | 2016-11-08 | 마이크로칩 테크놀로지 인코포레이티드 | System and method for gesture control |
JP2017010241A (en) * | 2015-06-22 | 2017-01-12 | セイコーエプソン株式会社 | Image display system and image display method |
KR20170027595A (en) * | 2015-09-02 | 2017-03-10 | 주식회사 서연전자 | Switch apparatus for a multimedia equipment of automobile |
-
2017
- 2017-05-23 KR KR1020170063561A patent/KR102355422B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150067926A (en) * | 2013-12-10 | 2015-06-19 | 현대자동차주식회사 | System and method for operating unit support of vehicle |
KR20160128994A (en) * | 2014-03-03 | 2016-11-08 | 마이크로칩 테크놀로지 인코포레이티드 | System and method for gesture control |
JP2017010241A (en) * | 2015-06-22 | 2017-01-12 | セイコーエプソン株式会社 | Image display system and image display method |
KR20170027595A (en) * | 2015-09-02 | 2017-03-10 | 주식회사 서연전자 | Switch apparatus for a multimedia equipment of automobile |
Also Published As
Publication number | Publication date |
---|---|
KR102355422B1 (en) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4650699B2 (en) | Input device, input method, and program | |
US20180341360A1 (en) | Method For Launching Application And Terminal Device | |
KR101978687B1 (en) | Method for inputting a character in touch screen terminal and apparatus thereof | |
US10409412B1 (en) | Multi-input element for electronic device | |
US7631123B2 (en) | KVM switch for switching among computers by employing mouse movement signal and method thereof | |
US9361022B2 (en) | Character input apparatus | |
KR20140145579A (en) | Classifying the intent of user input | |
JP6144501B2 (en) | Display device and display method | |
US20170192465A1 (en) | Apparatus and method for disambiguating information input to a portable electronic device | |
US20160162143A1 (en) | Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium | |
US20060077182A1 (en) | Methods and systems for providing user selectable touch screen functionality | |
KR101369595B1 (en) | A display apparatus providing user menu interface and a method of display appratus to provide user menu interface | |
US20140028595A1 (en) | Multi-touch based drawing input method and apparatus | |
US20120026092A1 (en) | Touch mouse operation method | |
US20140210739A1 (en) | Operation receiver | |
KR20180128246A (en) | Methods and apparatus for preventing misreading of touch pad | |
CN111901534A (en) | Audio and video segmentation interaction method, device, equipment and storage medium | |
KR100963228B1 (en) | Apparatus for inputting touch signal | |
US20120242587A1 (en) | Character recognition system | |
US10203774B1 (en) | Handheld device and control method thereof | |
US11938823B2 (en) | Operating unit comprising a touch-sensitive operating area | |
KR101654694B1 (en) | Electronics apparatus control method for automobile using hand gesture and motion detection device implementing the same | |
KR102311294B1 (en) | Method of determining input for elevator button, button input decision device and button input decision system performing method | |
KR20160068054A (en) | Apparatus for Correcting Input-Coordinate of Touch screen and Correction Method Thereof | |
US8712717B2 (en) | Computer device with digitizer calibration system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |