KR20050119112A - Unambiguous text input method for touch screens and reduced keyboard systems - Google Patents

Unambiguous text input method for touch screens and reduced keyboard systems Download PDF

Info

Publication number
KR20050119112A
KR20050119112A KR1020057016436A KR20057016436A KR20050119112A KR 20050119112 A KR20050119112 A KR 20050119112A KR 1020057016436 A KR1020057016436 A KR 1020057016436A KR 20057016436 A KR20057016436 A KR 20057016436A KR 20050119112 A KR20050119112 A KR 20050119112A
Authority
KR
South Korea
Prior art keywords
character
input
key
screen
detection area
Prior art date
Application number
KR1020057016436A
Other languages
Korean (ko)
Inventor
에드윈 엔지
오주셍
탄친후
Original Assignee
엑스알고믹스 피티이 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑스알고믹스 피티이 리미티드 filed Critical 엑스알고믹스 피티이 리미티드
Publication of KR20050119112A publication Critical patent/KR20050119112A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

A method for entering text unambiguously. The method includes detecting, on a screen, sensor pad, or reduced keyboard system, a stroke across of an individual character or symbol; and displaying the character or symbol unambiguously. This allows for unambiguous inputting in reduced keyboard systems without the need of changing modes or auxiliary keys.

Description

터치 스크린용 명료 텍스트 입력 방법 및 감소된 키보드 시스템{UNAMBIGUOUS TEXT INPUT METHOD FOR TOUCH SCREENS AND REDUCED KEYBOARD SYSTEMS}UNAMBIGUOUS TEXT INPUT METHOD FOR TOUCH SCREENS AND REDUCED KEYBOARD SYSTEMS}

본 발명은 임의의 키보드 시스템 및 문자의 배열에서 센서를 갖는 스크린, 센서 패드 또는 펜 기반 입력용의 명료 텍스트 입력에 관한 것이다. 이는 또한 부가의 버튼, 소프트 키 또는 불명료 텍스트 입력 및 명료 텍스트 입력 사이에서 모드를 변환하기 위한 방법을 갖지 않고 명료 키 스트로크 방법을 보완하기 위해 예를 들어, 텐고(TenGo)(싱가폴 특허 출원 제200202021-2호)인 감소된 키보드 시스템용으로 무단 실행되는 명료 텍스트 입력 시스템을 허용한다. 본 발명은 또한, 특히 모바일 장치, 휴대 전화, 핸드헬드, PDA, 포켓 컴퓨터, 타블렛 PC, 센서 패드 또는 임의의 펜 기반 및 가상 키보드 시스템의 터치 스크린 또는 소프트 키 텍스트 입력 응용예에 관한 것이다.The present invention relates to clear text input for screen, sensor pad or pen based input with sensors in any keyboard system and arrangement of characters. It also does not have a method for switching modes between additional buttons, soft keys or indistinct text input and intelligibility text input, for example, in order to supplement the intelligibility key stroke method, for example, TenGo (Singapore Patent Application No. 200202021- 2) allows a clear text input system to be executed unauthorizedly for the reduced keyboard system. The invention also relates in particular to touch screen or soft key text input applications in mobile devices, cellular telephones, handhelds, PDAs, pocket computers, tablet PCs, sensor pads or any pen-based and virtual keyboard systems.

PDA, 핸드헬드 및 모바일 장치의 성장은 경이적인 짧은 시간에 이루어졌다. 당신이 가는 거의 대부분의 장소에서 모든 사람들은 정리되지 않은 모바일 장치들을 휴대한다. 이러한 새로운 시대의 출현은 온라인 텍스트 기반의 통신을 급증시켰다. 온라인 텍스트 통신은 컴퓨터 및 인터넷에 의해 시작되었고, 단문 메시지 서비스(SMS)로 수용되고 대중성을 얻게 되었다. 이메일은 사실상 개인 및 비즈니스용의 통신을 형성하고, 컴팩트 전자 장치들은 보다 소형화되고 보다 고기능화 및 고집적화되었다. 휴대 전화, 핸드헬드, PDA 및 포켓 컴퓨터에 의해 지향된 단방향은 이메일, SMS 또는 인스턴트 메시징(IM)인 하나 또는 그 이외의 형상의 온라인 텍스트 기반 통신이다.The growth of PDAs, handhelds and mobile devices has taken place in a phenomenal short time. In almost every place you go, everyone carries unorganized mobile devices. The emergence of this new era has proliferated online text-based communication. Online text communication has been initiated by computers and the Internet and has become accepted and popular with short message services (SMS). Email has in fact formed communication for personal and business, and compact electronic devices have become smaller, more functional and highly integrated. Unidirectional directed by mobile phones, handhelds, PDAs, and pocket computers is online text-based communication in one or more forms, such as email, SMS, or instant messaging (IM).

텍스트 입력용으로, 펜 기반 패러다임은 핸드헬드 시장에 제공되었지만, 이는 키보드 기반 테크놀로지를 이용하는 쪽과 평행한 추세이다. 펜 기반 입력은 스타일러스, 손가락 또는 스크린 상의 가상 키보드를 태핑하거나 또는 필기함으로써 남게되는 "디지털 잉크"를 해독하기 위한 필기 인식을 이용하는 스크린에 필기하기 위한 대상물을 이용한다. 펜 기반 태핑은 스크린 상에 나타나는 작은 가상 키보드 또는 디스플레이 면적을 손상시키는 큰 버튼으로 불편한 반면, 외관상으로는 "보다 자연적인" 펜 기반 필기(서명)는 느리고 높은 사용자 기대를 달성할 만큼 정확하지 않다. 그러나, 서명 입력의 최대 병목현상(bottleneck)은 사람의 서명 속도를 제한하게 한다. 속도 및 효율의 방법에서, 키보드 엔트리는 텍스트 기반 통신용으로 여전히 가장 빠르고 가장 편리하다. 따라서, 온라인 텍스트 기반 통신의 중요하고 크게 증가하는 요구에 의해, 다수의 장치 제조자들은 소형의 풀사이즈 QWERTY식 키보드를 이용하도록 강제된다. 시각적으로 호소하는 소형 키보드는 키이가 너무 소형이고 너무 근접함에 따라 우발적인 텍스트 입력이 일어나기 쉽다. 이 때문에, 예측 텍스트 입력을 이용하는 감소된 키보드 시스템은 공간의 제한과 큰 버튼 때문에 장래성이 있는 것으로 보여지는 다른 대체안이지만, 다중 탭 또는 이중 키이 스트로크 방법과 유사한 텍스트 입력(예를 들어, 비예측성 또는 명료 텍스트 입력)의 보다 효율적인 모드로 모드 변경이 종종 요구되는 사전 또는 데이터베이스에 없는 단어의 키이를 누를 때 문제가 발생한다. 다중 탭, 이중 키이스트로크 또는 다중 스트로크 번역의 일반적인 명료 텍스트 입력 방법의 예는 감소된 키보드 시스템용으로 미국 특허 제6,011,554호 및 제6,307,549호에 개시된다.For text entry, pen-based paradigms have been offered in the handheld market, but this is in parallel with the use of keyboard-based technology. Pen-based input utilizes an object for writing on a screen using handwriting recognition to decode the “digital ink” left by tapping or writing the stylus, finger or virtual keyboard on the screen. Pen-based tapping is inconvenient with small virtual keyboards that appear on the screen or large buttons that damage the display area, while apparently "more natural" pen-based writing (signature) is slow and not accurate enough to achieve high user expectations. However, the maximum bottleneck of signature entry allows a person to limit the signature speed. In terms of speed and efficiency, keyboard entries are still the fastest and most convenient for text-based communication. Thus, with the significant and growing demand for online text-based communication, many device manufacturers are forced to use small, full-size QWERTY keyboards. Visually appealing small keyboards are prone to accidental text entry as the keys are too small and too close. Because of this, a reduced keyboard system that uses predictive text input is another alternative that appears to be promising because of space limitations and large buttons, but text input (eg, unpredictability similar to the multi-tap or double key stroke method). Or a more efficient mode of clear text entry), which causes problems when pressing keys of words that are not in a dictionary or database that often require mode changes. Examples of general clear text input methods of multi-tap, double keystroke or multi-stroke translation are disclosed in US Pat. Nos. 6,011,554 and 6,307,549 for reduced keyboard systems.

펜 기반 탭 방법용의 전방 예측 엔진이 합체된 펜 기반 탭 방법 및 감소된 키보드 시스템용의 명료 텍스트 입력을 개선하기 위한 다양한 시도가 있었다. 펜 기반 탭 방법의 주요한 문제는 정확하게 입력하기 너무 작아서 종종 잘못된 키이를 누를 때 실패를 생성하는 가상의 버튼을 태핑하는 것을 요구하고, 태핑할 때 상당량의 주의력과 집중력을 여전히 요구한다는 것이다. 따라서, 사용자가 종종 읽기용으로만 이메일 및 워드 프로세싱 등의 모바일 텍스트 기반 응용제품을 이용하고 쓰기용이 아닌 것을 놀랄만한 일이 아니다. 모바일 장치의 텍스트 입력은 단문 메시지, 단문 노트 및 접촉 정보를 파일링하는 데에만 제한된 시간의 대부분을 차지한다. Various attempts have been made to improve the pen-based tap method incorporating the forward prediction engine for the pen-based tap method and the clear text input for reduced keyboard systems. The main problem with the pen-based tap method is that it is so small to type correctly that it often requires tapping a virtual button that generates a failure when the wrong key is pressed, and still requires a great deal of attention and attention when tapping. Thus, it is not surprising that users often use mobile text-based applications such as email and word processing only for reading and not for writing. Text input on a mobile device takes up most of the limited time only for filing short messages, short notes and contact information.

문자 키이를 태핑하는 대신에 스크린 텍스트 입력하기 위한 본 발명에서, 당신은 문자를 횡단하여 간단하게 스트로크할 수 있다. 명료 펜 기반 텍스트 입력용의 이러한 스트로크 또는 필기방법을 실행함으로써, 보다 적은 집중력과 주의력을 요구하고, 태핑보다 아주 약간 긴 스텝 프로세스만으로 부정확한 시작점과 빠른 조절을 허용하는 필기의 보다 관대한 유연성 때문에 보다 정확하다. 빠른 조절은 또한 필기 동안 가상 키보드의 뒤에 남겨진 디지털 잉크 궤적 때문에 보다 쉽게 만들어질 수 있다. 디지털 잉크 궤적은 정확한 문자를 필기하기 위해 빠른 임의의 조절이 되도록 사용자를 적절하게 안내하도록 사용자에게 구별되는 가시적인 피드백을 제공한다. 펜 기반 텍스트 입력용의 미려한 설계는 장치의 폼팩터의 변경을 요구하지 않고 임의의 가상 키보드 설계 또는 문자 배열 및 문자 형식(예를 들어, 중국 문자, 일문자, 중국 및 일본 스트로크 심볼 등)에서 실행될 수 있다.In the present invention for inputting screen text instead of tapping character keys, you can simply stroke across the characters. By implementing these strokes or writing methods for clear pen-based text input, they require less concentration and attention, and because of the more generous flexibility of handwriting, which allows inaccurate starting points and quick adjustments with only a slightly longer step process than tapping. Accurate. Quick adjustments can also be made easier because of the digital ink traces left behind the virtual keyboard during writing. The digital ink trajectory provides distinct visual feedback to the user to properly guide the user to make any adjustment quickly to write the correct letter. The elegant design for pen-based text entry can be implemented in any virtual keyboard design or character arrangement and character format (for example, Chinese characters, Japanese characters, Chinese and Japanese stroke symbols, etc.) without requiring a change in device form factor. have.

필기 방법은 (예를 들어, 모드 변경 버튼의 필요없이) 불명료 텍스트 입력을 갖는 일정한 명료 텍스트 입력에 의해 감소된 키보드 시스템에서 두 가지 기능성을 갖는다. 무단성은 동일한 키이의 입력의 두 가지 상이한 형식(예를 들어, 탭 대 필기)을 식별할 수 있도록 본 발명에 의해 생성된다. 감소된 키보드의 키이는 다중 문자 키이가 태핑할 때 불명료 텍스트 입력용으로 정상 기능하도록 하고, 필기할 때 명료 텍스트 입력을 수용하도록 허용한다. 이는 키이가 태핑 방향에 반대 방향으로 이동하도록 허용하는 보다 우수한 자유도를 간단히 제공함으로써 물리적인 키이를 이용하는 감소된 키보드 시스템에 동일하게 적용되고, 따라서, 개별 문자용의 스트로크를 시뮬레이션한다. 이는 다중 문자 키이인 (정상 탭 메커니즘을 갖는) 다중 방향 버튼을 갖거나 또는 태핑 방향 반대로 이동될 수 있는 개별 키이들로 구성된 다중 문자 키이를 가짐으로써 실행된다.The writing method has two functionalities in a keyboard system reduced by constant intelligible text input with indistinct text input (eg, without the need for a mode change button). Unauthorizedness is created by the present invention to enable identification of two different forms of input of the same key (eg, tap versus handwriting). The reduced keyboard keys allow multi-character keys to function normally for opaque text input when tapping and to accept clear text input when writing. This applies equally to reduced keyboard systems using physical keys by simply providing better degrees of freedom allowing the keys to move in the opposite direction to the tapping direction, thus simulating strokes for individual characters. This is done by having a multi-directional key (with a normal tap mechanism) that is a multi-character key or having a multi-character key composed of individual keys that can be moved in the opposite direction of the tapping direction.

입력 자체에 기초한 제스처 또는 스트로크는 파일 열기, 파일 닫기, 파일 실행 등과 같은 명령 작동용의 "쇼트커트"로써 컴퓨터 시스템에 이용되어왔고, 신규한 것이 아니다. 펜 기반 텍스트 입력용으로, 대문자 형상에서 기본 문자를 입력하기 더 쉽게 하기 위해 윈도 CE(Windows CE) 표준 키보드에 또한 이용된다. 이는 대문자화할 문자를 터치고 펜을 위로 활주함으로써 수행되고, 터치된 글자의 대문자 버전이 디스플레이된다. 윈도 CD 표준 키보드는 또한 펜을 좌측으로 활주시킴으로써 백스페이스를 검출하고, 펜이 오른쪽으로 활주되면 스페이스를 검출한다. 미국 특허 출원 제20030014239호에서, 활주는 또한 상이한 활주 방향을 가짐으로써 악센트 또는 다른 확장 문자들을 입력하기 위해 펜 기반 텍스트 입력에 이용되고, 활주 길이는 터치된 글자의 다양한 버전 또는 커스텀화된 출력을 결정한다. 윈도 CE 표준 키보드 및 미국 특허 출원 제20030014239호의 주요한 문제는 활주하기 전에 글자를 나타내는 작은 가상 버튼/키이를 터치하는 것을 여전히 요구한다는 것이다. 본원의 필기 방법에서, 당신은 다른 글자의 버튼 공간을 터치함으로써 활주를 사실상 시작할 수 있고, 입력하고자 하는 글자의 검출 영역을 통한 활주는 문자를 입력한다. 다른 주요한 차이점은, 본원은 태핑하지 않고 필기하는 것이 원하는 글자의 실제 선택에 이용되지만, 전술한 다른 해결책은 활주가 악센트, 대문자화, 연장된 문자 또는 글자의 실제 선택을 위한 태핑에 여전히 의지하면서 기능에 기초한 지령과 같이, 선택된 글자의 대체 형상을 선택하도록 이용된다는 것이다. 본 발명이 태핑과 일치하는 필기를 이용하는 경우만이 불명료 및 명료 텍스트 입력 사이의 무단 전환을 생성하도록 가상 다중 문자 키이에 이용된다. 감소된 키보드 시스템용의 불명료 및 명료 텍스트 입력을 무단 구별하기 위한 활주 방법의 이용은 미국 특허 제6286064호에서 포함되지만, 활주 운동은 정확하게 각각의 키이의 각각의 심볼을 여전히 먼저 터치하는 것을 요구한다. 또한, 종래 기술에서, 요구된 문자는 스크린으로부터 펜의 상승을 디스플레이하거나 또는 이러한 길이가 활주된 후에 활주 운동의 다른 방향을 식별함으로써 문자는 검출 영역에서의 필기 운동과 접촉하도록 디스플레이될 수 있다.Gestures or strokes based on the input itself have been used in computer systems as "shortcuts" for command operations such as file open, file close, file execution, and the like, and are not novel. For pen-based text entry, it is also used on Windows CE standard keyboards to make it easier to enter basic characters in uppercase letters. This is done by touching the letter to be capitalized and sliding the pen up, and an uppercase version of the touched letter is displayed. The Windows CD standard keyboard also detects backspace by sliding the pen to the left and detects space when the pen slides to the right. In US Patent Application No. 20030014239, the slide is also used for pen-based text input to enter accents or other extended characters by having different slide directions, the slide length determining various versions or customized outputs of the touched letters. do. The main problem with the Windows CE standard keyboard and US patent application 20030014239 is that it still requires touching a small virtual button / key that represents a letter before sliding. In the writing method of the present application, you can actually start the slide by touching a button space of another letter, and the slide through the detection area of the letter to be inputted enters the letter. Another major difference is that the present application is used for the actual selection of the desired letters without tapping, but the other solutions described above function while the slide still relies on tapping for the actual selection of accents, capitalization, extended letters or letters. As with the instruction based on, it is used to select an alternative shape of the selected letter. Only when the present invention uses handwriting consistent with tapping is used in virtual multi-character keys to create an unauthorized transition between obscure and clear text input. The use of a sliding method for unauthorized discrimination of obscurity and intelligible text input for reduced keyboard systems is included in US Pat. No. 6286064, but the sliding motion requires exactly touching each symbol of each key first. Also, in the prior art, the required character can be displayed to contact the writing movement in the detection area by displaying the rise of the pen from the screen or by identifying the other direction of the sliding movement after this length has been slid.

본 발명은 디지털 잉크 궤적 및 빠른 검출을 위한 라인 검출 영역의 이용을 보다 개선하고, 스페이스바아와 유사한 기능을 갖는 다양성은 라인 또는 박형 바아로 수축되어, 공간을 절약하지만, 가상 키보드의 텍스트 입력을 고속화하기 위해 보다 전략적인 위치에 라인 스페이스 바아를 위치할 수 있다.The present invention further improves the use of digital ink trajectories and line detection areas for fast detection, and the diversity with spacebar-like functionality is shrunk to lines or thin bars, saving space, but speeding up text input on the virtual keyboard. To do this, you can place the line space bar in a more strategic location.

본 발명의 실시예들의 이들 및 다른 특징, 목적 및 장점들은 첨부된 도면을 참조하여 후술하는 설명으로부터 해당 기술 분야의 종사자들에 의해 보다 잘 이해될 수 있고 쉽게 이해될 수 있다.These and other features, objects, and advantages of embodiments of the present invention may be better understood and readily understood by those skilled in the art from the following description with reference to the accompanying drawings.

도1은 터치 스크린 또는 스크린 입력 인터페이스에 온 스크린 키보드(종래의 QWERTY식 키보드)를 유사하게 보이는 방법을 도시한다.1 illustrates a method of similarly displaying an on-screen keyboard (formerly a QWERTY keyboard) on a touch screen or screen input interface.

도1a는 센서 패드에 온 패드 키보드(종래의 QWERTY식 키보드)를 유사하게 보이는 방법을 도시한다.Fig. 1A shows a method of similarly showing an on-pad keyboard (a conventional QWERTY keyboard) on a sensor pad.

도2는 터치 스크린 또는 스크린 입력 표면에 온 스크린 감소된 키보드 시스템(예를 들어, TenGO)를 유사하게 보이는 방법을 도시한다.FIG. 2 illustrates a method of similarly viewing an on-screen reduced keyboard system (eg, TenGO) on a touch screen or screen input surface.

도3은 온 스크린 상의 개별 문자들이 횡단 스트로크(필기)되고 이에 따른 문자 입력의 디스플레이 방법을 도시한다.Fig. 3 shows a method of displaying the character input according to which the individual characters on the on-screen are traversed stroked.

도4는 검출 영역의 예를 도시한다.4 shows an example of the detection area.

도4a는 라인 검출 영역의 예를 도시한다.4A shows an example of the line detection area.

도5는 개별 버튼으로 구성된 다중 문자 키이를 갖는 하드 키이 감소된 키보드 시스템에 적용된 필기 방법을 도시한다.5 shows a writing method applied to a keyboard system with reduced hard keys having multiple letter keys composed of individual buttons.

도5a는 조이스틱형 다중 문자 키이를 갖는 하드 키이 감소된 키보드 시스템에 적용된 필기 방법을 도시한다.Fig. 5A shows a writing method applied to a keyboard system with reduced hard keys having a joystick type multi-character key.

도6은 본 발명의 소프트웨어 프로그램과 연관된 주요 성분을 도시하는 블록도이다.6 is a block diagram showing the main components associated with the software program of the present invention.

도7은 본 발명의 소프트웨어 프로그램의 작동과 연관된 주요 단계를 도시하는 흐름도이다.7 is a flow chart showing the main steps involved in the operation of the software program of the present invention.

도8은 본 발명의 소프트웨어 프로그램의 입력 루틴과 연관된 주요 단계를 도시하는 흐름도이다.8 is a flow chart showing the main steps associated with the input routine of the software program of the present invention.

본 발명의 태양은 스크린 텍스트 입력 시스템용 방법을 제공하고, 스크린의 가상 키보드의 키이스트로크를 나타내는 문자에 걸쳐 스트로크하기 위해 손가락 또는 대상물을 이용하여 명료하게 가상 키보드의 데이터 값 또는 데이터 심볼을 입력하기 위해, 스크린의 터치를 검출하는 단계와, 스크린의 접촉 지점으로부터 스트로크 운동을 검출하는 단계와, 그에 위치된 또는 근접하여 위치된 스크린에 디스플레이된 문자를 나타내는 데이터 값 또는 데이터 심볼이 할당된 스크린의 검출 영역으로 스트로크 경로의 위치 지점을 매치시키는 단계와, 횡단 스트로크된 검출 영역에 할당된 데이터 값 또는 데이터 심볼을 문자 입력으로써 디스플레이하는 단계를 포함한다.Aspects of the present invention provide a method for a screen text input system, for clearly inputting a data value or data symbol of a virtual keyboard using a finger or an object to stroke across a character representing a keystroke of a virtual keyboard of a screen. Detecting a touch of the screen, detecting a stroke movement from a point of contact of the screen, and a detection area of the screen to which a data value or data symbol is assigned indicating a character displayed on the screen located or proximate thereto And matching the position points of the stroke path and displaying the data values or data symbols assigned to the transverse stroked detection area as text input.

실시예는 문자 상에서 원 그리기, 가로지르기, 십자 그리기 및 지그재그로 그리기 등의 다른 제스처에 걸친 스트로크를 포함할 수 있고 그에 걸친 스트로크로써 동일한 기능성을 가질 수 있다. 부가로, 제스처 동안 가상 키보드의 디지털 잉크 궤적 뒤에 제스처가 남겨질 수 있다.Embodiments may include strokes over other gestures, such as circle drawing, traversing, cross drawing, and zigzag drawing on a character, and may have the same functionality as the stroke over them. In addition, a gesture may be left behind the digital ink trajectory of the virtual keyboard during the gesture.

스크린의 검출 영역과 스트로크 경로의 위치 지점을 매칭하는 본 방법의 다른 실시예는 가장 적절하거나 또는 최초 공통 검출 영역에서 가장 적절하지 않거나 최종 공통 검출 영역까지를 갖는 매칭 순서로 수행된다. Another embodiment of the method of matching the detection area of the screen with the position point of the stroke path is performed in a matching order having the most appropriate or the least common to the most common or final common detection area.

다른 실시예는 문자를 나타내는 검출 영역이 문자 내에 있거나 또는 이를 커버하고, 문자 검출 박스는 임의의 형상과 크기를 가질 수 있다. 부가로, 검출 영역은 문자를 횡단하거나 또는 인접한 검출 라인일 수 있다. 또한, 검출 라인은 키보드 상에서 가시성이다. 또한, 스페이스바아는 가상 키보드 상의 단일 라인 또는 박형 바아로 디스플레이될 수 있고, 이는 검출 라인으로써 선택된다.In another embodiment, a detection area representing a character is within or covers the character, and the character detection box may have any shape and size. In addition, the detection area may be a detection line that traverses or adjoins the character. In addition, the detection line is visible on the keyboard. In addition, the spacebar can be displayed as a single line or thin bar on the virtual keyboard, which is selected as the detection line.

또 다른 실시예는 또한 어퍼 케이스, 발음기호 및 악센트 형식 또는 그 기능 등과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 디스플레이하는 단계를 포함하고, 보조 키이 또는 스티키(sticky) 보조 키이(스티키의 의미는 다른 키이와 협력하여 작업하도록 키이를 눌러 보유하는 것을 유지할 필요가 없이 보조 키이를 한번 누르는 것만을 요구하는 것-예를 들어, 스티키 시프트)가 제스처와 협력하여 이용된다.Another embodiment also includes displaying data values or data symbols in different cases, such as upper cases, phonetic symbols and accent forms or functions thereof, and wherein the auxiliary key or sticky auxiliary key (the meaning of the sticky is different) Requiring only pressing a secondary key once (eg, sticky shift) is used in conjunction with a gesture without the need to keep pressing and holding the key to work in cooperation with the key.

본 방법의 다른 실시예는 제스처가 끝난 다음의 임의의 문자를 무시한 제스처가 끝난 첫 번째 문자가 디스플레이되는 문자를 갖는다. 선택적으로, 디스플레이된 문자는 제스처가 끝난 임의의 이전 문자를 무시한 제스처가 끝난 최종 문자이다. 다른 변형은 디스플레이되는 문자는 제스처가 끝난 임의의 다른 문자를 무시하는 가장 많이 제스처가 끝난 문자를 디스플레이한다. 검출 라인에서, 가장 많이 제스처가 끝난 문자는 검출 라인의 중심에 근접하게 제스처된다. 다른 변형에서, 문자들은 제스처가 끝난 순서로 제스처가 끝난 각각의 문자가 디스플레이된다.Another embodiment of the method has a character in which the first character of the gesture, ignoring any character after the gesture, is displayed. Optionally, the displayed character is the gestured final character ignoring any previous character that was gestured. Another variation is that the displayed character displays the most gestured character that ignores any other character that is gestured. In the detection line, the most gestured character is gestured close to the center of the detection line. In another variation, the characters are displayed in the gestured order of each character.

본 방법의 또 다른 실시예에서, 스크린은 터치 스크린 또는 센서 패드 또는 펜 기반 입력과 유사한 센서 대상물 또는 센서로 작동하는 스크린 또는 가상 스크린이다.In another embodiment of the method, the screen is a screen or virtual screen that acts as a sensor object or sensor similar to a touch screen or sensor pad or pen based input.

본 방법의 다른 실시예에서, 문자는 다중 문자 키이의 문자들 중 하나일 수 있다. 부가로, 실시예는 문자 또는 다중 문자 키이가 이에 걸쳐 스트로크하는 대신에 태핑되면 다중 문자 키이 입력으로써 수행될 수 있다.In another embodiment of the method, the character may be one of the characters of a multi-character key. In addition, embodiments may be performed with input of multiple character keys if a character or multiple character key is tapped instead of stroked across.

본 발명의 다른 태양은 스크린 텍스트 입력 시스템을 제공하고, 이는, 스크린 상에 가상 키보드를 디스플레이하는 디스플레이 루틴, 가상 키보드의 디스플레이된 문자를 나타내는 가상 키보드의 다양한 검출 영역에 할당된 데이터 값과 데이터 심볼의 저장된 세트, 가상 키보드의 터치와 가상 키보드와 접촉하는 필기 경로를 검출하는 입력 루틴, 필기 경로와 가상 키보드의 검출 영역을 매치시키고 선택된 검출 영역을 결정하는 매칭 루틴, 선택된 검출 영역을 나타내는 데이터 값 또는 데이터 심볼을 디스플레이하는 출력 루틴을 포함한다.Another aspect of the present invention provides a screen text input system, which includes a display routine for displaying a virtual keyboard on a screen, the data values and data symbols assigned to various detection areas of the virtual keyboard representing the displayed characters of the virtual keyboard. A stored set, an input routine for detecting a touch of the virtual keyboard and a writing path in contact with the virtual keyboard, a matching routine for matching the writing path and a detection area of the virtual keyboard and determining a selected detection area, a data value or data representing the selected detection area It includes an output routine that displays a symbol.

본 실시예에서, 시스템은 스크린 텍스트 입력 시스템용의 입력 방법을 합체한다.In this embodiment, the system incorporates an input method for the screen text input system.

본 발명의 다른 태양은 복수개의 키이를 갖고, 각각의 키이는 적어도 하나의 특성을 갖고, 상기 특성은 키보드의 키이스트로크를 나타내는 데이터 값, 함수 또는 데이터 심볼이고, 개별 데이터 값 또는 데이터 심볼로 구성됨을 나타내는 개별 키이들로 구성된 다중 문자 키이이고, 키이는 다중 문자 키이의 정상 태핑 운동의 반대 방향 운동으로 이동할 수 있고, 스트로크 텍스트 입력 방법을 이용하여 불명료 및 명료 텍스트 입력 사이에서 모드를 변경하는 것을 요구하지 않는 명료하게 문자를 입력하기 위한 것인 감소된 키보드 시스템용 입력 방법을 제공하고, 상기 방법은, 다중 문자 키이 입력용의 정상 태핑에 반대 방향으로 개별 문자 키이를 이동시키는 단계와, 개별 문자 키이를 나타내는 데이터 값 또는 데이터 심볼을 디스플레이하는 단계를 포함한다. 선택적으로, 개별 문자 키이들로 구성된 다중 문자 키이 대신에, 태핑에 이격된 다중 방향으로 이동될 수 있는 단일 버튼이 있고, 각각의 방향은 태핑과 반대인 개별 문자 키이로 구성되어 이동하는 스트로크 텍스트 입력 방법을 나타낸다.Another aspect of the invention has a plurality of keys, each key having at least one property, said property being a data value, function or data symbol representing a keystroke of a keyboard, consisting of individual data values or data symbols. It is a multi-character key consisting of individual keys that represent, the key can move in the opposite direction of the normal tapping motion of the multi-character key, and does not require changing the mode between obscure and clear text input using the stroke text input method. An input method for a reduced keyboard system, the method comprising: moving individual character keys in a direction opposite to normal tapping for input of multiple character keys; Displaying the data value or data symbol that it represents. The. Optionally, instead of a multi-character key consisting of individual character keys, there is a single button that can be moved in multiple directions spaced apart from the tapping, each stroke consisting of individual character keys opposite to the tapping and moving stroke text input. The method is shown.

다른 실시예는 보조 키이 또는 스티키 키이가 태핑에 반대인 개별 문자의 이동과 협력하여 이용되면, 어퍼 케이스, 발음 기호 및 악센트 형식 또는 그 기능과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 디스플레이하는 단계를 더 포함할 수 있다. Another embodiment provides a method of displaying data values or data symbols in different cases, such as upper cases, phonetic symbols and accent forms, or functions, when auxiliary keys or sticky keys are used in conjunction with movement of individual characters against tapping. It may further include.

다른 실시예는 문자를 나타내는 버튼이 스트로크 대신에 태핑되고 태핑 반대방향으로 이동되면 다중 문자 키이 입력에 따라 수행되는 단계를 더 포함할 수 있다. 부가로, 동일한 다중 문자 키이 세트로부터 하나 이상의 개별 문자 키이가 함께 태핑되면, 단일의 다중 문자 키이 입력에 따라 수행된다.Another embodiment may further comprise the step of performing the multi-character key upon input if the button representing the character is tapped instead of the stroke and moved in the opposite direction of tapping. In addition, if more than one individual character key is tapped together from the same multi-character key set, a single multi-character key is performed upon input.

본 발명의 다른 태양은 정보를 입력하기 위한 감소된 키보드 시스템을 제공하고, 이는, 각각 적어도 하나의 특성을 갖는 복수의 키이와, 데이터를 저장하기 위한 데이터베이스와, 정보를 디스플레이하기 위한 디스플레이를 포함하고, 상기 특성은 키보드의 키이스트로크를 나타내는 데이터 값, 함수 또는 데이터 심볼이고, 상기 키이는 다중 문자 키이의 정상 태핑 운동의 반대방향 운동으로 이동될 수 있는 개별 데이터 값 또는 데이터 심볼로 구성됨을 나타내는 개별 문자 키이들로 구성된 다중 문자 키이이고, 상기 데이터는 키이의 입력 키이스트로크 시퀀스와 연관된 데이터 문자 또는 데이터 심볼이다.Another aspect of the invention provides a reduced keyboard system for entering information, comprising a plurality of keys each having at least one characteristic, a database for storing data, and a display for displaying information; The characteristic is a data value, function or data symbol representing a keystroke of a keyboard, the individual character indicating that the key consists of individual data values or data symbols that can be moved in the opposite direction of the normal tapping motion of a multi-character key. A multi-character key consisting of keys, the data being a data character or data symbol associated with the key's input keystroke sequence.

다른 실시예에서, 명료하게 문자를 입력하기 위해 정상 다중 문자 키이 입력에 따라 태핑에 반대방향으로 개별 문자 키이를 이동시킴으로써 불명료 및 명료 텍스트 입력 사이에서 모드를 변경하는 것을 요구하지 않는다.In another embodiment, normal multi-character keys do not require changing modes between ambiguity and clarity text input by moving individual character keys in opposite directions to tapping in order to enter characters clearly.

다른 실시예에서, 개별 문자 버튼으로 구성된 다중 문자 키이 대신에, 태핑에 이격된 다중 방향으로 이동될 수 있는 단일 버튼이고, 각각의 방향의 태핑에 반대방향으로 개별 키이를 구성하는 이동의 동등물을 나타낸다.In another embodiment, a multi-character key consisting of individual character buttons is instead a single button that can be moved in multiple directions spaced apart by tapping, and the equivalent of the movements constituting the individual keys in opposite directions to each tapping direction. Indicates.

다른 실시예에서, 다중 문자 키이는 태핑될 때 다중 문자 키이 입력에 따라 기능한다. 다중 문자 키이 입력은 미국 특허 제5,818,437호, 제5,945,928호, 제5,953,541호, 제6,011,554호, 제6,286,064호, 제6,307,549호 및 싱가폴 특허 출원 제200202021-2호에 개시된 바와 같은 임의의 현존하는 감소된 키보드 시스템을 이용할 수 있다.In another embodiment, the multi-character key functions upon input as the multi-character key is tapped. Multi-character keying input is any existing reduced keyboard as disclosed in US Pat. Nos. 5,818,437, 5,945,928, 5,953,541, 6,011,554, 6,286,064, 6,307,549 and Singapore Patent Application 200202021-2. The system is available.

본 명세서에 걸쳐 도시된 실시예들은 본 발명의 제한으로써가 아닌 예로써 고려된다.Embodiments shown throughout this specification are considered by way of example and not by way of limitation.

모바일 장치들이 크기가 줄어들고, 이메일 및 워드 프로세싱과 유사한 문자 입력이 요구되는 텍스트 기반의 컴퓨터 어플리케이션이 보다 많이 포함됨에 따라, 사용자에게 빠르고 쉽고 직관적일 뿐만 아니라 이를 지지하거나 또는 확장된 텍스트 입력용으로 이용될 수 있는 텍스트 입력 해결책을 제공하기 위한 도전이 있다.As mobile devices shrink in size and include more text-based computer applications that require text entry similar to email and word processing, they are not only fast, easy and intuitive for the user, but also support or be used for extended text input. There is a challenge to provide a text input solution.

일반적으로, 소형 키보드와 유사한 하드웨어 기반의 텍스트 입력 방법과, 서명 인식 및 가상 키보드와 유사한 주로 펜 기반 또는 터치 스크린 방법 또는 음성 인식과 유사한 핸즈프리 방법을 포함하는 소프트웨어 기반의 텍스트 입력 방법의 두 개의 주요한 유형의 해결책이 있다. 표면적으로는 타이핑의 주목할만한 대체물이고 보다 개선을 통한 음성 인식은 여전히 부정확성, 긴 훈련 및 학습 기간, 속도, 프라이버시 및 말하고 생각하는 것보다 생각하고 타이핑하는 것이 보다 자연적인 것과 같은 다른 인간적인 요소들의 문제로 어려움을 겪는다. 공간의 속박 및 제한 때문에, 작은 버튼 및 키이를 갖는 소형 키보드와 같은 하드웨어 기반 해결책은 타이핑하기 어렵고 잘못된 이웃의 키이를 눌러서 종종 에러가 발생한다. 펜 기반 해결책은 서명 인식보다 우수하지 않고, 여전히 많이 부정확하고, 느리고, 인식 소프트웨어를 훈련시키기 위한 긴 학습 연습이 필요하다. 가상 키보드와 유사한 다른 펜 기반 해결책은 하드웨어 대응물로써 동일한 함정에 직면하는데, 이는 가상 키보드 상에 할당된 작은 영역이 또한 타이핑하는데 많은 집중력과 주의력을 요구하는 작은 버튼을 갖고, 오타가 종종 발생한다는 것이다. 명확하게, 모든 해결책들은 지속적이거나 또는 보다 집약적인 텍스트 입력을 위한 적절한 텍스트 입력 플랫폼을 제공하는데 불가능하다.In general, there are two main types of software-based text input methods, including hardware-based text input methods similar to small keyboards, and mainly pen-based or touch screen methods similar to signature recognition and virtual keyboards, or hands-free methods similar to speech recognition. There is a solution. On the surface, it is a notable substitute for typing, and speech recognition through further improvements is still a matter of other human factors, such as inaccuracy, long training and learning durations, speed, privacy, and thinking and typing are more natural than speaking and thinking. Have difficulty. Because of the constraints and constraints of space, hardware-based solutions such as small keyboards with small buttons and keys are difficult to type and often errors occur by pressing keys of the wrong neighbors. Pen-based solutions are not superior to signature recognition and are still much inaccurate, slow, and require long learning exercises to train the recognition software. Other pen-based solutions similar to virtual keyboards face the same pitfalls as their hardware counterparts: small areas allocated on the virtual keyboard also have small buttons that require a lot of attention and attention to typing, and typos often occur. . Clearly, all solutions are impossible to provide a suitable text input platform for continuous or more intensive text entry.

본 발명자는 보다 이해하기 쉬운 모바일 문자 입력 해결책을 생성하는데 두 개의 주요한 방향이 있음을 인식하였다. 하나는 작은 가상 키보드 버튼을 태핑하는 것보다 효율적인 것이고, 다른 하나는 요구되는 키보드의 수를 줄여서 큰 키보드 버튼을 가능하게 하는 감소된 키보드 시스템이다.The inventors have recognized that there are two main directions in creating a mobile text input solution that is easier to understand. One is more efficient than tapping a small virtual keyboard button, and the other is a reduced keyboard system that enables large keyboard buttons by reducing the number of keyboards required.

가상 키보드의 작은 버튼을 타이핑하기 위해, 본 출원인은 약간 느리지만 너무 많은 주의력과 집중력을 요구하는 태핑보다는 보다 관용적인 방법을 요구하였다. 따라서, 본 발명은 제스처 또는 스트로크 입력 텍스트 입력 방법이다. 제스처 또는 스트로크 입력 텍스트 입력 방법은 보다 효율적이고, 정확하고, 온 스크린 키보드로부터 문자를 선택하는 오류에 관대한 방법이 되도록 태핑보다는 느린 단계 프로세스(제스처)를 이용한다. 본 방법은 영어, 불어 및 독어 키보드와 유사한 QWERTY식 키보드와, 또한 피탈리(Fitaly)[등록 상표 텍스트웨어 솔루션스 인크.(Textware Solutions Inc.)-미국 특허 제5,487,616호], 옵티(Opti) I, 옵티 II, 메트로폴리스(Metropolis) 키보드 및 중국어, 일본어 키보드 등과 같은 비-QWERTY식 키보드를 포함하는 모든 방식에 활용 가능하다.To type small buttons on the virtual keyboard, the applicants demanded a more tolerant method than tapping, which is slightly slow but requires too much attention and concentration. Thus, the present invention is a gesture or stroke input text input method. Gesture or Stroke Input The text input method utilizes a slower step process (gesture) rather than tapping to be a more efficient, accurate, and tolerant method of selecting characters from the on-screen keyboard. The method is based on a QWERTY keyboard similar to English, French and German keyboards, and also Fititaly [Textware Solutions Inc.-US Pat. No. 5,487,616], Opti I, It can be used in any way, including non-QWERTY keyboards such as the Opti II, Metropolis keyboard, and Chinese and Japanese keyboards.

본 발명의 아이디어 및 목적은 작은 온 스크린 또는 온 패드 키이를 태핑할 때 보다 많은 주의력과 집중력을 요구하지 않고, 보다 정확하고, 보다 오류에 대해 관대하고, 따라서, 전체적으로 빠른 입력 방법을 갖는 것이다. 이는 또한 활공하는 그의 텍스트 입력을 조정하기 위해 사용자용 가상 피드백으로써 제공되는 가상 키보드의 디지털 잉크 궤적을 방치한 본 발명으로 개선된다. 이는 보다 오류에 대해 관대하도록 집중력있게 태핑하는 것을 방해하는 작용을 주기적으로 번역하여, 즐길수 있는 스트로크 제스처가 스크린 기반 텍스트 입력 또는 펜 기반 텍스트 입력용으로 이용되도록 보다 흥미를 유발하도록 한다. 본 발명의 응용예는 모바일 장치, PDA, 핸드헬드, 포켓 PC, 휴대 전화, 타블렛 PC 또는 가상 키보드 또는 스크린 기반 또는 펜 기반 입력을 이용하는 임의의 장치와 같은 소형, 중형 장치일 것이다. 도1은 핸드헬드 장치(10)에 유사하게 보이는 가상 키보드(12)의 온 스크린 실행 방법을 도시한다. 도1a는 타이핑 표면 패드(54)에 유사하게 보이는 가상 키보드(56)의 온 패드 실행 방법을 도시한다. 표면 패드(54)는 일반적으로 컴퓨터 프로세서(52) 및 디스플레이(50)에 링크되고, 텍스트 입력이 동일한 컴퓨터 프로세서에 링크된 개별 스크린(50)에 나타내어진다.The idea and object of the present invention is to have a more accurate, more tolerant, and therefore faster overall input method without requiring more attention and concentration when tapping a small on screen or on pad key. This is also improved with the present invention, which neglects the digital ink trajectory of the virtual keyboard, which is provided as a virtual feedback for the user to adjust his text input gliding. This periodically translates actions that hinder the more intensely focused tapping of errors, causing more interesting stroke gestures to be used for screen-based or pen-based text input. Applications of the present invention will be small, medium sized devices such as mobile devices, PDAs, handhelds, pocket PCs, cell phones, tablet PCs or virtual keyboards or any device using screen based or pen based input. 1 illustrates a method for on-screen execution of a virtual keyboard 12 that looks similar to a handheld device 10. 1A illustrates a method of on pad execution of a virtual keyboard 56 that looks similar to a typing surface pad 54. Surface pads 54 are generally linked to computer processor 52 and display 50, and text inputs are shown on separate screens 50 linked to the same computer processor.

도면들에 도시된 실시예들과 본원에서 설명된 시스템은 일반적으로 실행될 수 있고 그리고/또는 해당 기술 분야에 공지된 컴퓨터 구조이다. 전술한 본 발명의 실시예들의 기능성은 하드웨어 또는 소프트웨어 모드에서 실행 가능하다. 소프트웨어의 의미에서, 시스템 구성요소들은 프로세스, 프로그램 또는 일반적으로 특정 기능 또는 연관된 기능을 수행하는 그의 일부일 수 있다. 하드웨어의 의미에서, 구성요소는 다른 구성요소와 함께 이용하도록 설계된 기능성 하드웨어 유닛이다. 예를 들어, 구성요소는 개별 전기 구성요소를 이용하여 실행될 수 있거나 또는 주문형 반도체(ASIC)와 같은 전체 전자 회로의 일부를 형성할 수 있다. 이들은 존재하는 다양한 다른 가능성이 있고, 해당 기술 분야의 종사자들은 시스템이 하드웨어 및 소프트웨어 구성요소의 조합으로써 또한 실행될 수 있다는 것을 명백하게 이해할 것이다.The embodiments shown in the figures and the systems described herein are generally computer implementations that may be executed and / or known in the art. The functionality of the embodiments of the invention described above can be implemented in hardware or software mode. In the sense of software, system components may be processes, programs or portions thereof that generally perform particular or associated functions. In the sense of hardware, a component is a functional hardware unit designed for use with other components. For example, the components may be implemented using individual electrical components or may form part of an overall electronic circuit, such as an application specific semiconductor (ASIC). These are various other possibilities that exist, and those skilled in the art will clearly understand that the system can also be implemented as a combination of hardware and software components.

퍼스널 컴퓨터 및 컴퓨팅 장치들은 실시예가 실행될 수 있는 컴퓨터 아키텍쳐의 예이다. 이러한 컴퓨터 아키텍쳐는 마이크로프로세서를 갖는 중앙 처리 유닛(CPU), 각각 임시 및 영구적으로 정보를 저장하는 랜덤 어세스 메모리(RAM), 리드 온리 메모리(ROM), 하드 드라이브, 메모리 스틱, 디스켓 또는 CD ROM과 같은 대용량 저장 장치 등과 같은 구성요소 및/또는 모듈을 포함한다. 이러한 컴퓨터 아키텍쳐는 또한 구성요소들 사이를 상호연결하고, 구성요소들 사이의 정보 및 통신을 제어하는 버스를 포함한다. 부가로, 사용자 입력 및 출력 인터페이스들이 키보드, 마우스, 마이크로폰 등이 사용자 입력용으로, 그리고 디스플레이, 프린터, 스피커 등이 출력용으로 일반적으로 제공된다. 일반적으로, 입력/출력 인터페이스 각각은 제어기에 의해 버스에 접속되고 제어기 소프트웨어를 실행한다. 물론, 임의의 수의 입력/출력 장치들이 이러한 시스템에 실행될 수 있다는 것은 명백하다. 컴퓨터 시스템은 통상적으로 CPU에 상주하는 운영 시스템 소프트웨어에 의해 제어되고 취급된다. 이들은 통상적으로 활용되고 공지된 다수의 운영 시스템이다. 따라서, 본 발명의 실시예는 이러한 컴퓨터 아키텍쳐내에서 그리고/또는 아키텍쳐에서 실행될 수 있다.Personal computers and computing devices are examples of computer architectures in which embodiments may be practiced. Such computer architectures include a central processing unit (CPU) with a microprocessor, random access memory (RAM), read only memory (ROM), hard drive, memory stick, diskette or CD ROM, each of which temporarily and permanently stores information. Components and / or modules, such as mass storage devices, and the like. This computer architecture also includes a bus that interconnects the components and controls the information and communication between the components. In addition, user input and output interfaces are generally provided for user input with keyboards, mice, microphones, and the like, and for output with displays, printers, speakers, and the like. In general, each input / output interface is connected to the bus by a controller and executes controller software. Of course, it is apparent that any number of input / output devices may be implemented in such a system. Computer systems are typically controlled and handled by operating system software residing on the CPU. These are a number of operating systems commonly utilized and known. Thus, embodiments of the invention may be implemented within and / or within this computer architecture.

스트로크 입력 텍스트 입력 방법은 소프트웨어, 하드웨어 및 이들의 하이브리드에 의해 실행될 수 있다. 일반적으로, 예를 들어 소프트키이(즉, 터치 패드 상의 가상 키보드)에 의해 순수하게 소프트웨어를 통해 실행되면, 스트로크 입력 텍스트 입력 방법이 통상적으로 실행되는 장치는 운영 시스템, BIOS(기본 입출력 시스템), 디스플레이 및 입력 메커니즘(즉, 터치 스크린 및 스타일러스)를 포함한다. 그 다음에, 스트로크 입력 텍스트 입력 방법용 소프트웨어는 운영 시스템에 의해 지원되는 프로그래밍 언어로 작성된 (이러한 방법을 커버하는) 소프트웨어 프로그램과, 검출 영역을 갖는 데이터 값 및 데이터 심볼의 할당을 커버하는 저장된 데이터베이스를 포함한다.Stroke input The text input method can be implemented by software, hardware and hybrids thereof. In general, if the softkey is executed purely through software, for example by means of a virtual keyboard on a touchpad, the device on which the stroke input text input method is typically executed may be an operating system, a BIOS (basic input / output system), a display. And input mechanisms (ie, touch screen and stylus). The software for stroke input text input method then comprises a software program (covering these methods) written in a programming language supported by the operating system, and a stored database covering the assignment of data values and data symbols with a detection area. Include.

스트로크 입력 텍스트 입력 방법이 예를 들어 하드키이 악세서리로써 하드웨어에서 감소된 키보드 시스템으로 실행되면, 하드웨어는 프로세서, ROM/RAM과 같은 메모리 모듈, 버튼, 키이 등과 같은 입력 메커니즘 및 모바일 장치, PDA, 핸드헬드 컴퓨터, 휴대 전화, 콘솔 장치 등과 같은 장치로의 인터페이스 소켓을 포함한다. 다양한 조합들이 가능하다. 프로그램 및 데이터베이스는 메모리 모듈 및 메모리의 프로그램을 구동하고 디스플레이와 인터페이스 소켓으로 정보를 중계하는 포괄적인 마이크로프로세서인 프로세서에 저장될 수 있다. 프로그램은 또한 예를 들어 디지털 신호 프로세서(DSP)인 프로세서와 메모리 모듈에 저장된 데이터베이스로 매핑될 수 있다. 일반적으로, 프로세서는 주요 중앙 유닛이다. 입력 메커니즘의 입력에서, 신호는 프로세서로 보내어진다. 프로세서는 예를 들어, 프로그램이 프로세서에 저장되면 신호를 처리하거나 또는 메모리를 쿼리하고, 입출력 장치로부터의 신호에 대해 메모리의 정보를 처리한다. 감소된 키보드 시스템의 하드웨어 해결책의 프로세서는 디스플레이로, 그리고/또는 예를 들어, PDA, 하드웨어 액세서리 등인 장치로의 인터페이스 소켓을 통해 신호를 출력할 수 있다.Stroke input If the text input method is implemented with a keyboard system reduced in hardware, for example as a hardkey accessory, the hardware may include a processor, memory modules such as ROM / RAM, input mechanisms such as buttons, keys, etc. and mobile devices, PDAs, handhelds. Interface sockets to devices such as computers, mobile phones, console devices, and the like. Various combinations are possible. Programs and databases may be stored in a processor, a comprehensive microprocessor that drives programs in memory modules and memory and relays information to display and interface sockets. The program can also be mapped to a database stored in a memory module and a processor, for example a digital signal processor (DSP). In general, the processor is the main central unit. At the input of the input mechanism, a signal is sent to the processor. The processor, for example, processes a signal or queries memory when a program is stored in the processor, and processes information in memory with respect to the signal from the input / output device. The processor of the hardware solution of the reduced keyboard system may output a signal to the display and / or via an interface socket to a device, for example a PDA, a hardware accessory or the like.

하이브리드 해결책에서, 예를 들어, PDA 등의 실행되는 장치의 메모리는 소프트웨어 또는 소프트웨어 드라이버를 통해 프로그램 및 데이터베이스를 저장하도록 이용될 수 있고, 전술한 첫 번째 경우와 유사하게 프로그램을 처리하기 위해 장치의 프로세서를 이용한다. 하드웨어는 버튼, 키이, 센서 및 인터페이스와 같은 입력 메커니즘을 포함할 수 있다. 입력 메커니즘이 예를 들어 부가의 버튼으로 장치상에 설치되면, 인터페이스는 장치와 접속되고 통신하는 간단한 유선 또는 무선 수단일 수 있다. 입력 메커니즘이 액세서리와 같은 외부 장치상에 있으면, 인터페이스는 전술한 두 번째 경우와 유사한 인터페이스 소켓일 수 있고, 디스플레이는 액세서리를 갖는 이전의 경우와 유사하게 하드웨어 해결책 상에 이식될 수 있고 또는 장치의 디스플레이를 이용할 수 있다.In a hybrid solution, for example, the memory of a running device, such as a PDA, can be used to store programs and databases via software or software drivers, and similarly to the first case described above, the processor of the device to process the program. Use The hardware may include input mechanisms such as buttons, keys, sensors, and interfaces. If the input mechanism is installed on the device, for example with additional buttons, the interface can be a simple wired or wireless means to connect and communicate with the device. If the input mechanism is on an external device such as an accessory, the interface may be an interface socket similar to the second case described above, and the display may be implanted on a hardware solution similar to the previous case with an accessory or the display of the device Can be used.

물론, 하드웨어의 감소된 키보드 시스템을 실행하기 위해서는 회로, 프로세서, 메모리 등을 수납하기 위해 회로 보드와 유사한 와이어에 의해 접속될 수 있고, 하우징은 버튼, 디스플레이 및 회로 보드와 같은 전체 하드웨어 부품을 장착한다.Of course, in order to implement a reduced keyboard system of hardware, it can be connected by wires similar to circuit boards for housing circuits, processors, memory, etc., and the housing mounts entire hardware components such as buttons, displays and circuit boards. .

필기 또는 스트로크 교차Handwriting or stroke crossing

태핑은 순간적인 단계 프로세스이기 때문에, 이는 또한 많은 주의력과 집중력을 요구하고 여전히 많은 실수가 생기고 많은 에러 교정을 할 필요가 있는 작은 가상 버튼의 소문자 또는 문자들을 선택하도록 사용하는 것에 대해서 보다 지루하고 불편하게 되게 한다.Because tapping is a momentary step process, it also makes it more tedious and inconvenient to use to select lowercase letters or characters in small virtual buttons that require a lot of attention and concentration and still make a lot of mistakes and need to make a lot of error correction. do.

요구되는 것은 직관적이고 쉽고 사용하기 빠를 뿐 아니라 집중력의 요구가 줄어든 약간 긴 프로세스 단계이다. "슬로우 다운" 프로세스 단계는 그를 태핑하는 대신에 텍스트를 입력하기 위해 요구되는 문자에 제스처의 형태로 된다.What is required is a slightly longer process step that is not only intuitive, easy and quick to use, but also reduces the need for concentration. The "slow down" process step is in the form of a gesture on the character required to enter the text instead of tapping it.

많은 제스처가 원 그리기, 가로지르기, 십자형 또는 지그재그 그리기 등의 프로세스 단계를 지연시키기 위해 이용될 수 있지만, 이들은 문자의 횡단 스트로크 또는 필기인 일 바람직한 제스처이다. 필기는 태핑과 달리 당신이 필기하는 것에 너무 주의력을 요구하는 것을 방지하기 위한 지연이 충분히 제공되는 다른 제스처보다 일반적으로 빠르기 때문에 바람직하다. 임의의 터치 스크린 입력 또는 센서 펜 또는 센서 입력을 갖는 스크린 또는 센서 펜과 센서 검출기를 갖는 가상 키보드 또는 센서 패드용으로 작용한다. 기본적으로, 문자를 필기할 수 있는 모든 방식들은 숫자, 알파벳 또는 구두점으로 필기될 수 있다.Many gestures may be used to delay process steps such as drawing circles, traversing, crosshairs or zigzag drawing, but they are one desirable gesture that is a cross stroke or handwriting of a character. Handwriting is desirable because, unlike tapping, it is generally faster than other gestures that provide enough delay to prevent you from requiring too much attention on your handwriting. It acts for a screen with any touch screen input or sensor pen or sensor input or for a virtual keyboard or sensor pad with sensor pen and sensor detector. Basically, all ways in which letters can be written can be written in numbers, alphabets or punctuation.

필기 제스처는 또한 필기 운동 동안 가상 키보드에 반사된 디지털 잉크 궤적을 이용하는 것을 보다 개선시킨다. 이는 실시간 가시 피드백을 사용자에게 제공하고, "활공 중에" 조절하기 쉽도록 하고, 사용자가 그가 필기한 것을 사실상 볼 수 있다.Handwriting gestures further improve using digital ink trajectories reflected on the virtual keyboard during handwriting exercises. This provides the user with real-time visual feedback, makes it easy to adjust "on the fly," and the user can actually see his notes.

도3은 핸드헬드 장치(150)용의 가상 키보드(156)의 문자를 선택하기 위해 이용될 수 있는 필기 방법의 예를 도시한다. 사용자는 스타일러스 펜(158) 또는 키보드(156)의 문자 "y"(160)에 필기하기 위한 대상물을 이용한다. 이는 텍스트 커서가 디스플레이(152)에 존재하는 문자를 입력한다. 알 수 있는 바와 같이, 필기는 이웃 문자 "g"(161)에서 시작될 수 있어서, 사용자를 위해 보다 유연성과 오류 관용성을 생성시킬 수 있다.3 illustrates an example of a writing method that may be used to select characters of the virtual keyboard 156 for the handheld device 150. The user uses an object for writing to the letter “y” 160 of the stylus pen 158 or the keyboard 156. This enters the character in which the text cursor is present in display 152. As can be seen, the handwriting can begin with the neighboring letter “g” 161, thereby creating more flexibility and error tolerance for the user.

온 스크린 키보드 등의 거리 분리를 시뮬레이션하도록 약간 이격되어 위치된 두 개의 작은 장방형을 갖는 필기의 유효성을 도시하기 위한 예1은 아래와 같다.Example 1 to illustrate the validity of a handwriting with two small rectangles positioned slightly spaced apart to simulate distance separation, such as on-screen keyboard, is as follows.

두 개의 장방형 사이에서 탭을 신속하게 교호하는 것과 신속하게 두 개의 박스를 가로질러 스트로크하는 것 사이를 비교할 때, 더욱 많은 히트 수(장방형 터치)/분을 가질 것이고, 실수가 줄어들고, 장방형을 필기하기 위해 보다 적은 노력(주의력)을 요구한다.When comparing between quickly alternating tabs between two rectangles and quickly stroke across two boxes, you will have more hits (rectangle touch) / minutes, fewer mistakes, and more rectangular notes Requires less effort.

검출 영역Detection area

본 발명의 주요 메커니즘은 보다 효율적인 필기를 만들고, 주의력을 요구하지 않고 달성하고, 작은 버튼의 탭이 검출 영역을 이용하는 것이다. 이전의 제스처 방법은 모두 문자가 디스플레이되는 키이와 초기에 접촉하는 것을 요구하는 미국 특허 제6,286,064호 및 미국 특허 출원 제2003-0014239호와 유사하다. The main mechanism of the present invention is to make more efficient writing, achieve without requiring attention, and the tap of a small button uses the detection area. All previous gesture methods are similar to US Pat. No. 6,286,064 and US Patent Application No. 2003-0014239, which all require initial contact with the displayed key.

문자용 검출 영역은 문자를 커버하거나 또는 문자보다 작고 그 내에 유지되는 검출 박스(임의의 형상 또는 크기)일 것이다. 검출 영역의 이용에서, 사용자는 다른 문자의 버튼 공간을 터치하고, 요구되는 문자의 검출 영역을 통해 활주함으로써 필기를 시작할 수 있다. 도4는 검출 영역(202, 210, 214)이 문자(204, 208, 216)와 여유 공간(205, 209, 215)에 할당되고, 이는 보다 오류에 관용적인 문자의 선택을 하기 위해 검출 영역과 각각의 정상 버튼 공간(200, 206, 212) 사이에 생성된다. 검출 영역은 검출 영역들 사이의 증가된 공간 때문에 필기 운동의 시작점에서 보다 오류 관용성이 커지게 하고[즉, 임의의 입력의 시작 없이 임의의 자유 공간(205, 209, 215)에 필기를 시작], 너무 작은 검출 영역은 문자 상에 필기하는 것을 검출하기 어렵게 한다. 알 수 있는 바와 같이, 검출 영역은 임의의 문자 또는 심볼[즉, 중국어 문자(216)]과 동일하게 작용한다.The detection area for characters will be a detection box (any shape or size) that covers or is smaller than and maintained within the character. In the use of the detection area, the user can start writing by touching the button space of another character and sliding through the detection area of the required character. 4 shows detection areas 202, 210, and 214 assigned to characters 204, 208, and 216 and free spaces 205, 209, and 215, which are combined with detection areas to make the selection of characters more tolerant to errors. Created between each normal button space 200, 206, 212. The detection area makes the error tolerance more tolerant at the start of the handwriting motion because of the increased space between the detection areas (ie, start writing in any free space 205, 209, 215 without the start of any input), Too small a detection area makes it difficult to detect writing on a character. As can be seen, the detection region acts the same as any character or symbol (ie Chinese character 216).

또한 종래 기술인 미국 특허 출원 제2003-0014239호에서, 활주 방법이 악센트, 대문자, 확장 문자 또는 기능 기반의 지령과 같은 문자의 교호식 형태를 선택하는데 이용되고, 본 발명에서 글자의 실제 선택용 태핑에 여전히 의존하고, 필기는 명료 가상 키보드 입력에서 문자를 선택하는 태핑의 개선이다.Also in the prior art US Patent Application No. 2003-0014239, a sliding method is used to select an alternating form of a character, such as an accent, uppercase letter, an extended character, or a function based instruction, and in the present invention, for tapping for actual selection of letters. Still relying on, handwriting is an improvement in tapping to select characters from clear virtual keyboard input.

검출 영역 메커니즘은 본 발명의 바람직한 실시예인 후술하는 바와 같이 라인 검출 영역과 함께 이용될 때 보다 크게 개선된다.The detection area mechanism is greatly improved when used with the line detection area as described below, which is a preferred embodiment of the present invention.

라인 검출 영역Line detection area

도4a는 정상 버튼 공간(240, 248)이 할당된 문자(244, 250) 상에 할당될 수 있다. 이러한 실시예는 보다 오류에 대한 관용성이 있게(라인 검출 영역들 사이에 보다 큰 공간) 문자들을 선택되도록 라인 검출 영역들 사이에 더 많은 공간을 생성하지만, 필기를 통해 문자를 선택하는 어려움을 감소시키는 것을 불충분하다. 다시, 라인 검출 영역은 임의의 문자 또는 심볼[예를 들어, 중국 문자(250)]용으로 동일하게 잘 작동할 수 있다.4A may be assigned on characters 244 and 250 to which normal button spaces 240 and 248 are assigned. This embodiment creates more space between line detection areas to select characters more tolerant of errors (larger space between line detection areas), but reduces the difficulty of selecting characters through writing. That is insufficient. Again, the line detection area can work equally well for any character or symbol (eg, Chinese character 250).

온 스크린 키보드 등의 거리 분리를 시뮬레이션하기 위해 약간 이격되어 위치되는 (박스 검출 영역으로 나타내어지는) 2개의 작은 장방형을 갖는, 라인 검출 영역의 유효성을 도시하기 위한 예2는 이하와 같다.Example 2 to illustrate the effectiveness of the line detection area, with two small rectangles (represented by the box detection area) positioned slightly spaced to simulate distance separation, such as on-screen keyboard, is as follows.

다음에 온 스크린 키보드 등의 거리 분리를 시뮬레이션하기 위해 약간 이격된 (라인 검출 영역을 나타내기 위한) 2개의 라인이 이하에 그려진다.Next, two lines (to indicate the line detection area) slightly spaced apart to simulate distance separation of an on-screen keyboard or the like are drawn below.

2개의 장방형 사이에서 필기를 신속하게 교호하는 것과 2개의 라인을 신속하게 횡단 스트로크하는 것을 비교할 때, 라인을 횡단하여 필기하는 것보다 더 쉽고 다른 영역을 우선 필기하는 것을 방지하기 위해 주의력이 요구되기 때문에, 필기하는 것보다는 적은 주의력이 요구되는 것으로 보인다.When comparing the fast alternating writing between two rectangles and the quick cross stroke of two lines, it is easier than writing across the lines and attention is required to prevent writing another area first. It seems that less attention is required than writing.

서로 근접한 모든 문자들을 갖는 전체 가상 키보드의 결과를 외삽법을 행하면, 라인 검출 영역의 유효성을 알게 될 것이다. 검출 라인은 필기를 용이하게 하기 위해 가상 키보드상에서 보여질 수 있다.By extrapolating the result of the entire virtual keyboard with all the characters in close proximity to each other, you will know the validity of the line detection area. The detection line can be shown on the virtual keyboard to facilitate writing.

라인 검출 영역으로, 단일 라인 또는 얇은 바아 내로 스페이스바아와 유사한 기능을 하는 공간과 결합하는 것을 가능하게 한다. 이러한 기능의 선택은 정상 라인 검출 영역에 따라 라인 또는 얇은 바아를 횡단하여 필기하도록 간단하게 될 수 있다. 라인 또는 얇은 바아로써, 텍스트 입력 효율을 최대화하고 소비되는 공간을 최소화하도록 영역 또는 공간의 기능을 실행/위치선정하는 것을 보다 용이하게 한다. 라인 스페이스바아가 실행되는 방법의 예는 도2의 수직 라인(110)에 의해 도시된다.With the line detection area, it is possible to combine with a space which functions like a space bar into a single line or thin bar. The selection of this function can be simplified to write across the line or thin bar, depending on the normal line detection area. Lines or thin bars make it easier to execute / position the function of an area or space to maximize text input efficiency and minimize the space consumed. An example of how the line spacebar is performed is shown by vertical line 110 in FIG.

검출 영역의 유연성 및 능력은 선택 규칙을 이용하여 또한 실행된다.The flexibility and capability of the detection area is also implemented using selection rules.

선택 규칙Selection rules

검출 영역, 특히 검출 라인 영역에 의해, 작은 버튼과 관련된 주의력, 집중력 및 방해물이 필요없이 작은 가상 버튼을 갖는 문자를 필기하는 것이 매우 쉽다. 임의의 위치에서 필기의 시작 지점을 가질 수 있기 때문에, 필기된 문자들이 선택되는 것을 결정하기 위한 선택 규칙은 요구되지 않는다.By the detection area, in particular the detection line area, it is very easy to write characters with small virtual buttons without the need for attention, concentration and obstructions associated with the small buttons. Since it may have a starting point of handwriting at any location, no selection rule is required to determine which handwritten characters are selected.

기본적으로 문자들이 선택되는 것을 결정하기 위해 이용될 수 있는 4개의 규칙이 있다.Basically there are four rules that can be used to determine which characters are selected.

1. 필기되는 최초 검출 영역이 선택된 문자1. Character where the first detection area to be written is selected

2. 필기되는 최후 검출 영역이 선택된 문자2. The character whose last detection area to be written is selected

3. 가장 많이 필기된 검출 영역이 선택된 문자-라인 검출 영역에서 중앙에 가장 근접하여 필기된 검출 라인을 의미한다. 박스형 검출 영역에서, 이는 절반에 가장 근접한 컷인 검출 영역 또는 가장 많이 제스처된(예를 들어, 원 그리기, 십자 그리기, 지그재그 등의 제스처) 검출 영역이 될 수 있다.3. A detection line written most closest to the center in the selected character-line detection area means the most-written detection area. In the boxed detection area, this may be a detection area that is cut closest to half or the most gestured detection area (eg, a gesture of circle drawing, cross drawing, zigzag, etc.).

4. 필기된 모든 검출 영역은 필기된 순서로 선택된 문자들이다.4. All of the detected detection areas are characters selected in the order in which they were written.

규칙 2 및 규칙 3에서, 터치 접촉이 끝난 후(예를 들어, 펜이 스크린에서 떨어진 후) 또는 표면과의 접촉 이후의 고정된 시간 인터벌 이후에만 선택 결정이 이루어질 수 있다는 것을 의미한다. 규칙 1 및 규칙 4는 가장 우수한 유연성을 제공하도록 터치 접촉이 끝나는 것을 요구하지 않고, 가장 우수한 반응 시간 및 속도를 제공한다. 규칙 1은 보다 자연스럽고 원하는 문자가 선택된 후에 필기하는 곳에 주의력과 집중력을 요구할 필요가 없도록 보다 "캐주얼"한 필기를 허용함에 따라 바람직한 실시예이다. 달리 말하면, 속도 또는 유효성을 손상시키지 않고 본 발명의 용이함, 자연스러움 및 재미 부분을 보강하여 필기를 보다 "흐릿하게(lacklustre)"할 수 있다. 규칙 1을 이용하여, 필기 방법을 이용하는 명료 텍스트 입력은 원하는 검출 라인을 횡단하여 필기한 후에 처음 터치 및 운동이 진행하는 것에 대해서 걱정할 필요 없이 매우 빠르고 쉬울 수 있다. 문자의 선택은 저음 검출 라인을 횡단하는 것과 동시에 일어난다. 이는 선택이 결정될 수 있기 전에 스크린으로부터 펜을 들어올리는 것을 요구하거나 또는 문자 선택이 결정될 수 있기 전에 소정의 라인 및/또는 방향으로 활주시키는 것을 요구하는 종래 기술과는 다르다.In rules 2 and 3, it is meant that the selection decision can only be made after a touch contact has ended (eg, after the pen has fallen off the screen) or after a fixed time interval after contact with the surface. Rules 1 and 4 do not require the touch contact to end to provide the best flexibility, but provide the best response time and speed. Rule 1 is a preferred embodiment as it allows for more "casual" writing so that there is no need for attention and concentration where writing is more natural and desired after writing. In other words, the handwriting can be more "lacklustre" by reinforcing the ease, naturalness and fun part of the present invention without compromising speed or effectiveness. Using Rule 1, clear text input using the writing method can be very quick and easy without having to worry about the first touch and movement after writing across the desired detection line. The selection of letters takes place simultaneously with crossing the bass detection line. This is different from the prior art which requires lifting the pen from the screen before the selection can be determined or requiring sliding in a given line and / or direction before the character selection can be determined.

특정 문자 또는 기능의 입력Entering a Specific Character or Function

어퍼 케이스, 대문자, 발음기호, 악센트, 연장된 문자 또는 기능 호출 등의 상이한 케이스의 문자를 입력하기 위해, 보조 키이가 필기와 협력하여 이용된다. 보조 키이를 선택하고 필기하여 문자를 선택함으로써, 특정 문자들이 디스플레이되거나 또는 기능이 수행된다. 바람직한 실시예는 보조 키이가 필기와 동시에 눌려지는 것을 요구하지 않는 스티키 보조 키이를 실행하도록 될 수 있다. 보조 키이는 필기 전에 한번 눌러주는 것만을 요구하고(플래그가 활성화됨), 요구되는 문자를 입력함으로써 추종된다.Auxiliary keys are used in cooperation with handwriting to enter characters in different cases, such as upper cases, uppercase letters, phonetic symbols, accents, extended characters or function calls. By selecting and writing a supplementary key to select a character, certain characters are displayed or a function is performed. A preferred embodiment may be arranged to execute a sticky auxiliary key that does not require the auxiliary key to be pressed simultaneously with writing. The auxiliary key requires only one press before writing (the flag is activated) and is followed by entering the required character.

특정 문자 또는 기능들은 각각의 검출 영역과 연관된 문자, 데이터 값 및 데이터 심볼로써 데이터베이스에 한정된다.Certain characters or functions are defined in the database with characters, data values and data symbols associated with each detection area.

스크린 텍스트 입력 시스템Screen text input system

제스처 또는 스트로크 입력 텍스트 입력 방법은 소프트웨어 프로그램 또는 장치 드라이버로써 펜 기반 시스템 및 장치들에서 실행될 수 있다. 도6은 본 발명에 따른 스크린 텍스트 입력 시스템용의 소프트웨어 프로그램과 연관된 주요 구성요소를 도시한다. 스크린 텍스트 입력 시스템(300)은 입력하도록 적절한 위치에서 검출 영역(302)을 갖는 가상 키보드 디스플레이(306)와, 가상 키보드에 디스플레이된 문자 및 임의의 특정 문자 또는 보조 키이 및 검출 영역의 시퀀스와 연관된 기능을 나타내는 다양한 검출 영역에 할당된 데이터 값 및 데이터 심볼의 세트를 저장하기 위한 데이터베이스(308)와, 출력 루틴(306)뿐만 아니라 입력 루틴(302), 매칭 루틴(304)을 갖는 소프트웨어 프로그램(300) 또는 장치 드라이버(300)를 포함한다. 데이터베이스는 주로 메모리(310)에 상주하고, (예를 들어, 이메일, 워드 프로세서, 스프레드 시트) 모든 어플리케이션(314), 소프트웨어 프로그램(300) 또는 장치 드라이버(300) 및 메모리는 윈도 CE 또는 팜(Palm) OS와 같은 운영 시스템(312)의 제어 하에서 기능할 수 있다.Gesture or stroke input text input methods may be implemented in pen-based systems and devices as software programs or device drivers. 6 shows the main components associated with a software program for the screen text input system according to the present invention. The screen text input system 300 has a function associated with a virtual keyboard display 306 having a detection area 302 at an appropriate location for input, and a character displayed on the virtual keyboard and any particular character or auxiliary key and sequence of detection areas. A software program 300 having a database 308 for storing a set of data values and data symbols assigned to various detection regions representing a representation, an input routine 302, a matching routine 304, as well as an output routine 306. Or device driver 300. The database primarily resides in memory 310 (e.g., email, word processor, spreadsheet), and all applications 314, software program 300 or device driver 300, and memory are Windows CE or Palm. May operate under the control of an operating system 312, such as an OS.

도7은 소프트웨어 프로그램의 작동과 연관된 주요 단계를 도시한다. 도6에서 도면부호 302로 도시된 바와 같이, 입력 루틴은 필기 운동(352)에 의해 추종되는 터치 온 스크린(350)을 검출한다. 이때, 도6에서 도면부호 304로 도시된 바와 같은 매칭 루틴은 필기 경로를 모니터할 수 있고, 임의의 검출 영역(354)과 매치되도록 한다. 검출 영역이 터치되거나 또는 (예를 들어, 검출 규칙의 규칙 1을 이용하여) 횡단하게 되면, 매칭 루틴은 데이터 값, 데이터 심볼, 특정 문자 또는 눌려진 임의의 보조 키이(360)와의 조합으로 필기된 검출 영역에 매칭되는 기능을 검색하고, 도6의 도면부호 306에 도시된 바와 같이 출력 루틴으로 정보를 통과시킨다. 출력 루틴은 커서 또는 입력 포인트가 현재 위치되는 장치(356)의 디스플레이에 디스플레이될 수 있다. 터치(350)에 추종하여 도면부호 352에서 필기 운동이 검출되지 않으면, 터치는 키보드의 정상 터치 입력에 따라 작동하고, 또는 감소된 키보드 시스템(358)의 다중 문자 버튼에 터치되면, 정상 다중 문자에 따라 작동한다.7 shows the main steps associated with the operation of the software program. As shown at 302 in FIG. 6, the input routine detects the touch on screen 350 followed by the writing movement 352. As shown in FIG. At this time, a matching routine as shown at 304 in FIG. 6 may monitor the writing path and match any detection area 354. When the detection area is touched or traversed (eg, using rule 1 of the detection rule), the matching routine detects the handwritten detection in combination with a data value, data symbol, specific character or any auxiliary key 360 pressed. The function matching the area is retrieved and the information is passed to the output routine as shown at 306 in FIG. The output routine can be displayed on the display of device 356 where the cursor or input point is currently located. If a handwriting movement is not detected at 352 following the touch 350, the touch operates according to the normal touch input of the keyboard, or, if touched by the reduced multi-character button of the keyboard system 358, then touches the normal multi-character. Works accordingly.

도8은 입력 루틴이 필기 운동을 분석하고 검출 영역(즉, 라인 검출 영역)과 매치되도록 하는 방법을 도시한다. 첫 번째 터치가 가상 키보드(400) 상에 검출되면, 접촉 좌표는 X1 및 Y1(402)로써 검색한다. 필기 운동이 궤적을 그리고 검출된 각각의 좌표가 Xn 및 Yn(406)으로써 운영 시스템에 의해 일반적으로 결정된 개별 시간 인터벌(1 내지 n)로 검색된다(404). 라인 방정식은 필기가 Xn-1 및 Yn-1로부터 Xn 및 Yn(408)까지 진행됨에 따라 계산되고, 이들 라인 방정식은 임의의 라인 영역이 필기되면(예를 들어, 2개의 라인 방정식들 사이에서 차단됨) 라인 검출 영역의 방정식으로 필기 프로세스(410)동안 매칭된다.8 illustrates a method by which the input routine analyzes the handwriting motion and matches with the detection area (ie, the line detection area). When the first touch is detected on the virtual keyboard 400, the contact coordinates are retrieved as X 1 and Y 1 402. The handwritten motion is traced and each coordinate detected is retrieved 404 at individual time intervals 1 through n, which are generally determined by the operating system as X n and Y n 406. Line equations are calculated as the writing progresses from X n-1 and Y n-1 to X n and Y n 408, and these line equations are written if any line region is written (eg, two line equations). Blocked between the equations) is matched during the writing process 410 with the equation of the line detection area.

보조 키이 더하기 검출 영역 콤보뿐만 아니라 다양한 검출 영역에 할당된 데이터 값 및 데이터 심볼의 세트로 저장하는 데이터베이스는 이하와 같이 보여진다.A database in which an auxiliary key stores not only a detection area combo but also a set of data values and data symbols assigned to various detection areas is shown as follows.

검출 영역Detection area 문자text X1Y1, X2Y2 X 1 Y 1 , X 2 Y 2 qq X3Y3, X4Y4 X 3 Y 3 , X 4 Y 4 ww X5Y5, X6Y6 X 5 Y 5 , X 6 Y 6 ee X7Y7, X8Y8 X 7 Y 7 , X 8 Y 8 rr X9Y9, X10Y10 X 9 Y 9 , X 10 Y 10 tt ...... ......

X1Y1, X2Y2은 검출 장방향 박스의 대향 좌표들의 좌표(수평축으로 Xx가 좌표이고 Yy는 수직축의 좌표임)를 도시한다. 장방형 외에 다른 형상이 이용되는 경우(예를 들어, 삼각형), 보다 많은 좌표들이 이용될 수 있고, 또는 원의 경우에 중심 지점과 반경이 이용될 수 있다. 검출 라인 영역의 바람직한 실시예에서, X1Y1, X2Y2는 수직 라인용의 X1Y1, X1Y2이고 수평 라인용으로 X1Y1, X2Y1이다.X 1 Y 1 , X 2 Y 2 show the coordinates of the opposite coordinates of the detection long direction box (X x is the horizontal axis and Y y is the coordinate of the vertical axis). If a shape other than a rectangle is used (eg a triangle), more coordinates can be used, or in the case of a circle a center point and radius can be used. In a preferred embodiment of the detection line region, X 1 Y 1 , X 2 Y 2 are X 1 Y 1 , X 1 Y 2 for the vertical line and X 1 Y 1 , X 2 Y 1 for the horizontal line.

보조 키이 더하기 검출 영역의 콤보용으로, 데이터베이스는 이하와 같다.For the combo of the auxiliary key plus detection area, the database is as follows.

보조 키이, 검출 영역Auxiliary key, detection area 문자text 시프트, X1Y1, X2Y2 Shift, X 1 Y 1 , X 2 Y 2 Q (대문자/어퍼 케이스)Q (uppercase / upper case) 시프트, X3Y3, X4Y4 Shift, X 3 Y 3 , X 4 Y 4 WW 시프트, X5Y5, X6Y6 Shift, X 5 Y 5 , X 6 Y 6 EE 보조1, X5Y5, X6Y6 Auxiliary 1, X 5 Y 5 , X 6 Y 6 보조2, X5Y5, X6Y6 2, X 5 Y 5 , X 6 Y 6 보조3, X5Y5, X6Y6 3, X 5 Y 5 , X 6 Y 6 ёё ...... ......

따라서, 전술한 데이터베이스 예에서, 시프트(스티키 시프트)를 누르고 검출 영역(X5Y5, X6Y6)을 필기하는 것은 어퍼 케이스에서 문자 "e"을 문자 "E"로 선택하고 디스플레이하고, 보조 키이 1(스티키 보조 키이)을 누르고 검출 영역(X5Y5, X6Y6)을 필기하면 문자 ""를 선택하고 디스플레이한다.Thus, in the above database example, pressing the shift (sticky shift) and writing the detection area (X 5 Y 5 , X 6 Y 6 ) selects and displays the letter "e" as the letter "E" in the upper case, Pressing the auxiliary key 1 (sticky auxiliary key) and writing the detection area (X 5 Y 5 , X 6 Y 6 ) "And display.

보다 효율적으로 루틴을 매칭하기 위해, 검출 영역들은 가장 공통적으로 필기된 문자로부터 가장 공통적으로 필기되지 않은 문자까지의 순서로 저장된다. 이러한 리스트에 이용된 가장 공통적인 글자는 임의의 바람직한 또는 참조된 통계치에서 쉽게 얻어질 수 있다. 데이터베이스를 셋업하기 위해 리스트에 이용된 단순한 공통 글자를 이용함으로써, 이는 매칭 루틴이 가장 자주 이용되는 처음 진행된 (가장 공통된) 검출 영역부터 두 번째로 자주 이용되는 것으로 필기 좌표/방정식을 항상 매칭할 수 있도록 한다.In order to match the routine more efficiently, the detection areas are stored in order from the most commonly handwritten characters to the most commonly unwritten characters. The most common letters used in this list can easily be obtained from any desired or referenced statistics. By using the simple common letters used in the list to set up the database, this ensures that the matching routine always matches the handwritten coordinates / equations from the first (most common) detection area that is used most often to the second most frequently used. do.

(QWERTY 키보드 배열에서 이용될 때) 가장 공통적으로 이용되는 것으로부터 가장 공통적으로 이용되지 않는 순서로 배열된 영어의 문자의 예는 다음과 같다.An example of English characters arranged in order from most commonly used to least commonly used (when used in a QWERTY keyboard layout) is as follows.

E, T, A, O, I, N, S, H, R, D, L, C, U, M, W, F, G, Y, P, B, V, K, J, X, Q, ZE, T, A, O, I, N, S, H, R, D, L, C, U, M, W, F, G, Y, P, B, V, K, J, X, Q, Z

따라서, 다양한 검출 영역에 할당되는 데이터 값과 데이터 심볼의 세트를 저장하는 데이터베이스는 다음과 같다.Thus, a database that stores data values and sets of data symbols assigned to various detection areas is as follows.

검출 영역Detection area 문자text X1Y1, X2Y2 X 1 Y 1 , X 2 Y 2 e(가장 자주 이용됨)e (most often used) X3Y3, X4Y4 X 3 Y 3 , X 4 Y 4 tt X5Y5, X6Y6 X 5 Y 5 , X 6 Y 6 aa ...... ...... X26Y26, X26Y26 X 26 Y 26 , X 26 Y 26 z(가장 적게 이용됨)z (least used)

감소된 키보드 시스템Reduced keyboard system

스트로크 입력 텍스트 입력 방법은 예를 들어, TenGO(싱가폴 특허 출원 제200202021-2호)인 감소된 키보드 시스템용 명료 텍스트 입력용으로 특히 유용하다. 이는 정상 불명료 텍스트 입력으로부터 모드를 절환할 필요 없이, 그리고 부가의 버튼의 필요 없이 명료 텍스트 입력을 수행하도록 한다. 이는 또한 감소된 키보드 시스템용의 미국 특허 제6,011,554호 및 제6,307,549호에서 개시된 다중 탭 및 2 단계 방법과 유사한 교호식 다중 단계 방법을 요구하지 않는 직접 명료 텍스트 입력 방법이다.The stroke input text input method is particularly useful for clear text input for reduced keyboard systems, for example TenGO (Singapore Patent Application 200202021-2). This allows to perform clear text input without the need to switch modes from normal obscure text input and without the need for additional buttons. It is also a direct clear text input method that does not require an alternate multi-step method similar to the multi-tap and two-step method disclosed in US Pat. Nos. 6,011,554 and 6,307,549 for reduced keyboard systems.

주요한 요인은 스트로크 입력 텍스트 입력 시스템이 필기와 탭 사이를 식별할 수 있도록 하여, 명료 텍스트 입력(필기)과 불명료 텍스트 입력(탭)이 동시에 구별될 수 있도록 하는 것이다. 감소된 키보드 시스템용의 불명료 및 명료 텍스트 입력 사이에서 이를 무단 구별하기 위한 활주 방법의 이용은 미국 특허 제6,286,064호에 이미 개시되어 있지만, 활주 운동은 미리 각각의 키이의 각각의 심볼을 먼저 터치할 필요가 있다. 본원의 개선된 스트로크 입력 텍스트 입력 시스템에서는 그럴 필요가 없다. 사실상, 임의의 개별 가상 키이는 도2에 도시된 바와 같은 다중 문자 키이(106)를 구성하는 개별 문자들을 나타낼 필요가 없다. 도2는 감소된 키보드 시스템이 핸드헬드 장치(100)에 실행되는 방법을 도시한다. 감소된 키보드 시스템은 일반적으로 다중 문자 버튼(106)으로 이루어진 가상 키보드(104) 및 데이터베이스(108)로 구성된다. 문자들은 다중 문자 키이 상에 정상적으로 디스플레이되고 다중 문자 키이를 태핑하여 명료 알고리즘으로 결정될 수 있는 불명료 텍스트 입력을 시작할 수 있고, 개별 문자들(예를 들어, 검출 영역)을 필기하는 것은 명료 텍스트 입력을 시작하고 (예를 들어, 선택 규칙의 규칙 1을 이용하여) 필기된 처음 검출 영역을 나타내는 문자를 디스플레이한다. 이는 펜 기반 장치에서 가상의 감소된 키보드 시스템을 이용하는 것이 명료 및 불명료 텍스트 입력 사이를 절환할 때 보다 쉽고 빠르게 할 수 있다.The main factor is to allow the stroke input text input system to distinguish between handwriting and tabs so that distinct text input (handwriting) and obscure text input (tab) can be distinguished at the same time. The use of a sliding method for unauthorized discrimination between indistinct and clear text input for a reduced keyboard system has already been disclosed in US Pat. No. 6,286,064, but the sliding motion must first touch each symbol of each key in advance. There is. This does not need to be the case with the improved stroke input text input system herein. In fact, any individual virtual key need not represent the individual characters that make up the multi-character key 106 as shown in FIG. 2 illustrates how a reduced keyboard system is implemented in the handheld device 100. The reduced keyboard system generally consists of a virtual keyboard 104 and a database 108 consisting of multiple character buttons 106. The characters can be displayed normally on a multi-character key and start typing indistinct text that can be determined by the clarity algorithm by tapping the multi-character key, and writing individual characters (e.g., detection area) starts the clear text input. And display a character representing the first detected detection area (eg, using Rule 1 of the selection rule). This can be easier and faster when using a virtual reduced keyboard system in a pen-based device to switch between clear and unclear text input.

이러한 동일한 방법은 정상 태핑 또는 키이의 가압에 반대방향으로 "필기" 운동을 시뮬레이션할 수 있는 물리적인 다중 문자 키이를 간단히 이용함으로써 물리적인 키이를 이용하는 감소된 키보드 시스템에 적용될 수 있다. 본 발명에서, 물리적인 감소된 키보드 시스템용의 스트로크 입력 텍스트 입력 방법을 실행하기 위한 두 개의 바람직한 실시예가 있다.This same method can be applied to reduced keyboard systems using physical keys by simply using physical multi-character keys that can simulate "writing" movements in the opposite direction to normal tapping or pressing of the keys. In the present invention, there are two preferred embodiments for implementing the stroke input text input method for a physically reduced keyboard system.

정상적으로, 감소된 키보드 시스템은 싱가폴 특허 출원 제200202021-2호에 개시된 바와 같이, 정상 키보드와 유사하게 실행되는 큰 버튼을 갖지만 (텍스트 입력을 개선하기 위해 공간을 압축하고 큰 버튼을 활용하도록) 동일한 다중 문자 키이를 할당하는 개별 문자를 갖는 것 또는 미국 특허 제5,818,437호, 제5,945,928호, 제5,953,541호, 제6,011,554호, 제6,286,064호, 제6,307,549호 및 싱가폴 특허 출원 제200202021-2호에 개시된 바와 같이 정상 키보드와 유사하지 않는 작은 버튼을 갖지만 키보드에 의해 활용되는 공간을 최소화하는 두 가지 방식으로 나타내어질 수 있다.Normally, a reduced keyboard system has large buttons that run similarly to a normal keyboard, as disclosed in Singapore Patent Application 200202021-2, but the same multiple (to compress space and utilize large buttons to improve text input). Having individual characters that assign letter keys or normals as disclosed in US Pat. Nos. 5,818,437, 5,945,928, 5,953,541, 6,011,554, 6,286,064, 6,307,549, and Singapore Patent Application 200202021-2. It has small buttons that do not resemble the keyboard, but can be represented in two ways that minimize the space utilized by the keyboard.

큰 버튼의 장치에서, 필기 방법은 도5에 도시된 바와 같은 태핑 운동의 반대방향으로 이동될 수 있는 다중 문자 키이(270)의 문자(264)를 구성하도록 나타내어지는 개별 키이들로 구성된 물리적인 다중 문자 키이의 형상으로 실시될 수 있다. 도5는 이러한 방법/메커니즘(268)을 이용하는 키보드가 핸드헬드 장치(260)에서 실행되는 방법을 도시한다. 태핑 또는 눌려질 때, 개별 버튼(264)들은 하나(270)로써 함께 이동되고, 정상 다중 문자 키이 입력에 따라 입력된다. 그러나, 개별 키이는 태핑 운동에 반대 방향(즉, 상향 또는 하향)으로 이동할 수 있고, 이러한 운동은 "필기" 운동을 시뮬레이션할 수 있고, 명료 텍스트 입력으로써 입력되고, 개별 키이들에 의해 나타내어지는 개별 문자를 디스플레이한다. 도5에서, 개별 키이"O"(264)는 상향으로 이동되고, 따라서, 디스플레이(266)에 현재 상주하는 텍스트 커서가 곳에 문자"o"이 입력된다. 물론, "상향" 운동이 명료 텍스트 입력용으로 이용되면, "하향" 운동은 특정 문자 또는 그 기능을 입력하도록 이용될 수 있다.In the device of a large button, the writing method is a physical multiple consisting of individual keys represented to constitute the character 264 of the multi-character key 270 that can be moved in the opposite direction of the tapping motion as shown in FIG. It can be implemented in the shape of a letter key. 5 illustrates how a keyboard utilizing this method / mechanism 268 is implemented in the handheld device 260. When tapped or pressed, the individual buttons 264 are moved together as one 270, and a normal multi-character key is entered upon input. However, the individual keys can move in opposite directions (ie, up or down) to the tapping motion, which can simulate a "handwritten" motion, entered as clear text input, and represented by the individual keys. Display characters. In Fig. 5, the individual key " O " 264 is moved upwards, so that the letter " o " is entered where the text cursor currently resides on the display 266. Of course, if the "up" exercise is used for clear text input, the "down" exercise may be used to enter a specific character or function thereof.

작은 키이들을 이용한 또는 키보드용의 작은 면적(예를 들어, 작은 폼 팩터)만을 갖는 물리적으로 감소된 키보드 시스템에서, 필기 방법은 도5a에 도시된 바와 같이 정상 태핑 운동에 부가하여, 다중 방향으로 이동할 수 있는 버튼[예를 들어, 조이스틱형 버튼(288)]인 물리적인 다중 문자 키이의 형상으로 실행될 수 있다. 도5a는 조이스틱형 버튼(288)을 이용하는 키보드(288)가 핸드헬드 장치(280)에서 실행될 수 있는 방법을 도시한다. 따라서, 개별 문자를 명료하게 입력하기 위해, 각각의 방향은 다중 문자 키이(288)에 의해 나타내어지는 문자들(예를 들어, "Q", "W", "E", "R", "T")의 세트에서 각각의 개별 문자를 나타낼 수 있다. 일반적으로 다중 문자 키이가 (보조 키이 또는 메뉴/선택 리스트를 이용하지 않고) 기본 세트의 5개의 문자들 이상을 나타내지 않기 때문에, 바람직한 실시예는 도5a에 도시된 바와 같이 반원쪽으로 5개의 방향인 다중 방향일 것이다. 도5a에서, 다중 문자 키이(288)는 우측으로 이동되고, 따라서, 디스플레이(282)에 텍스트 커서가 현재 존재하는 위치에 문자"t"를 입력한다. 물론, 보다 적은 방향이 5개의 문자들보다 적은 다중 문자 키이용으로 이용될 수 있거나 또는 보다 많은 방향(예를 들어, 후방 반원 방향, 당김, 시계 및 반시계 방향 꼬임 등)이 대문자, 악센트, 확장 또는 발음기호 문자 또는 기능과 같은 비문자 기반 세트를 수용하기 위해 실행될 수 있다.In a physically reduced keyboard system using small keys or having only a small area (eg small form factor) for the keyboard, the writing method moves in multiple directions, in addition to the normal tapping motion as shown in FIG. 5A. Can be implemented in the form of a physical multi-character key that is a button (e.g., joystick button 288). 5A illustrates how a keyboard 288 using a joystick-like button 288 may be executed on the handheld device 280. Thus, in order to enter the individual characters clearly, each direction is represented by the characters represented by the multi-character keys 288 (eg, "Q", "W", "E", "R", "T"). Each individual character in a set of " In general, since the multi-character key does not represent more than five characters of the basic set (without using a secondary key or menu / selection list), the preferred embodiment is a multi-direction in five directions towards a semicircle as shown in Fig. 5A. Direction. In FIG. 5A, the multi-character key 288 is moved to the right, thus entering the character "t" at the position where the text cursor is currently present in the display 282. In FIG. Of course, fewer directions may be used for multi-character keys with less than five characters, or more directions (eg, backward semicircle direction, pull, clock and counterclockwise twist, etc.) may be capitalized, accented, extended Or may be implemented to accommodate a non-literal based set such as a phonetic alphabet character or function.

따라서, 다양한 방향으로 버튼을 이동시키면 데이터 값 또는 데이터 심볼이나 심지어 버튼과 연계된 기능 및 이동 방향을 명료히 선택/디스플레이한다. 이는 물리적으로 감소된 키보드 시스템을 위하여, 명료한 텍스트 입력(방향적 입력) 및 불명료한 텍스트 입력(태핑)을 무단 통합시킨다. Thus, moving a button in various directions clearly selects / displays data values or data symbols or even functions associated with the button and the direction of movement. This integrates clear text input (directional input) and unclear text input (tapping) for a physically reduced keyboard system.

물론, 감소된 키보드 시스템을 위한 명료한 텍스트 입력은 새로운 단어를 라이브러리에 저장하는 것 같은 기능을 위한 통상의 명료한 텍스트 입력에 따라서 동작한다.Of course, clear text input for a reduced keyboard system operates in accordance with conventional clear text input for functions such as storing new words in a library.

제스처 또는 스트로크 입력 텍스트 입력 방법 및 실행을 고려한 소정 설계 요소는 핸드헬드, PDA, 이동 전화, 포켓 PC 및 태블릿 PC 같은 소형 모바일 장치를 위한 스크린상의 소형 소프트-키이를 두드릴 때의 실수(frustration)이다. 신속한 적용 및 낮은 티밍 곡선(low teaming curve)과, 디스플레이 스크린 크기를 훼손(즉, 보다 큰 버튼)시키지 않고, 텍스트를 입력하기 위한, 그리고, 영어, 불어 및 독어 키보드 같은 QWERTY-형 키보드와, 또한, Fitaly(TextwareTM Solutions Inc.-미국 특허 제5,487,616호), 옵티 I, 옵티 II, 메트로폴리스 키보드 및 심지어 중국어 키보드, 일본어 키보드 등 같은 비 QWERTY-형 키보드를 포함하는, 모든 방식의 키보드와 호환적인, 보다 양호하고 보다 효율적인 방식이 필요하다. 개발된 방법은 불명료 및 명료 텍스트 입력 사이의 모드 변경 기능을 필요로 하지 않고, 다중-문자 키이를 사용하는 감소된 키보드 시스템상에서 실행되어 감소된 키보드 시스템을 위한 명료 텍스트 입력의 무단 실행(가상 키이 또는 물리적 키이 중 어느 하나를 사용)을 제공할 수도 있다.Gesture or Stroke Input Certain design factors that consider and implement text input methods are frustrations when tapping small soft-keys on the screen for small mobile devices such as handhelds, PDAs, mobile phones, pocket PCs, and tablet PCs. . Quick application and low teaming curves, QWERTY-type keyboards such as English, French and German keyboards, for entering text, without compromising the display screen size (ie, larger buttons), and also Compatible with all manner of keyboards, including Fitaly (Textware TM Solutions Inc.-US Pat. No. 5,487,616), Opti I, Opti II, Metropolis keyboards and even non-QWERTY-type keyboards such as Chinese keyboards, Japanese keyboards, etc. There is a need for a better and more efficient way. The developed method does not require the ability to change modes between indistinct and intelligible text input, and is run on a reduced keyboard system using multi-character keys to allow unauthorized execution of intelligible text input for reduced keyboard systems (virtual keys or Use any one of the physical keys).

작은 버튼 또는 문자상의 태핑이 문제가 되기 때문에, 활공(fly)의 조절을 허용하지만, 보다 적은 에러 빈도수 및 보다 적은 사용자 실수로 인해, 전체적 텍스트 입력을 가속시키며, 주의력 및 집중력에 대한 보다 적은 필요성 때문에 사용자의 숙련도를 높이도록(정확도 내성적이며, 조절을 허용하기 때문에) 태핑 보다 미소하게 긴 시간을 소요하면서 보다 유연한 시작점을 가지는 처리 단계가 필요하다. 따라서, 제스처 또는 스트로크 기반 텍스트 입력이 개발되었다. 제스처의 양호한 실시예는 횡단 스트로크 또는 필기이지만, 보다 느리기는 하지만, 모든 다른 제스처형 원그리기, 교차, 십자형 교차 또는 지그재그운동 등이 적용가능하다. 따라서, 필기에서, 스크린상의 키보드의 임의의 문자를 횡단 스트로크를 하는 것만이 스타일러스, 손가락 또는 대상물로 행하여야 하는 전부이며, 문자가 입력된다. 필기는 시작점을 문자 자체 상에 위치시켜야만 하는 것은 아니다. 사실, 시작점은 다른 버튼일 수 있으며, 입력을 원하는 문자를 통한 필기의 운동일 수 있다. 이는 임의의 터치 스크린 입력 또는 센서 펜이나 센서 입력을 갖는 스크린이나 심지어 센서 펜이나 센서 검출기를 갖는 가상 키보드 또는 센서 패드에 대해 작용한다. 기본적으로, 모든 방식의 문자가 필기될 수 있으며, 이는 숫자, 알파벳, 심볼, 구두점 등이 될 수 있다. Tapping on small buttons or characters is a problem, allowing for adjustment of the fly, but with less error frequency and fewer user errors, accelerating overall text input, and due to less need for attention and attention There is a need for a processing step with a more flexible starting point that takes slightly longer time than tapping to increase the user's skill level (because accuracy is resistant and allows adjustment). Accordingly, gesture or stroke based text input has been developed. Preferred embodiments of gestures are transverse strokes or handwriting, although slower, all other gesture-like circle, cross, cross-cross or zigzag movements and the like are applicable. Thus, in handwriting, only a cross stroke of any character of the keyboard on the screen is all that must be done with the stylus, finger or the object, and the character is input. Handwriting does not have to place the starting point on the letter itself. In fact, the starting point may be another button, and may be a movement of handwriting through the character desired to be input. This works for a screen with any touch screen input or sensor pen or sensor input or even a virtual keyboard or sensor pad with a sensor pen or sensor detector. Basically, any type of character can be written, which can be numbers, alphabets, symbols, punctuation, and the like.

그 필기 동작시 사용자를 안내하면서 시각적 피드백으로서 기능하도록 필기 동안 가상 키보드상에 디지털 잉크 궤적이 도시되게 하도록 필기의 강조가 이루어질 수 있다.The emphasis of the handwriting can be made such that the digital ink trajectory is shown on the virtual keyboard during handwriting to guide the user in the handwriting operation and serve as visual feedback.

보다 효과적인 필기를 가능하게 하기 위해, 문자를 검출 영역에 형성하는 대신, 문자를 덮거나, 문자 보다 작아 문자 내에 유지되는 검출 박스(임의의 형상 또는 크기)가 사용될 수 있다. 검출 영역의 양호한 실시예는 문자를 횡단하는 라인(사용자에게 가시적이거나 비가시적일 수 있음)이다. 사용자가 수행하여야하는 전부는 라인을 횡단하여 필기하는 것이며, 문자는 횡단하여 스트로크된 것으로 간주된다. 이는 초-신속 필기 동작을 가능하게 하며, 심지어 텍스트 입력에 즐거움의 요소를 추가한다. 라인 검출의 부가적인 용도는 단일 라인 또는 얇은 바아로 스페이스바아 같은 기능을 소비하는 공간을 감소시키는 것이다. 따라서, 기능의 선택은 단순히 기능을 나타내는 라인을 횡단하여 필기하는 것이다. 라인 또는 얇은 바아로서, 공간점유를 최소화하고, 텍스트 입력 흐름을 최적화하기 위해 일 영역 내에 기능을 배치하는 것이 매우 보다 용이해 진다.To enable more effective writing, instead of forming the character in the detection area, a detection box (any shape or size) that covers the character or is smaller than the character and retained within the character may be used. A preferred embodiment of the detection area is a line traversing the text (which may be visible or invisible to the user). All the user has to do is to write across the line and the characters are considered stroked across. This enables ultra-fast handwriting operation and even adds elements of pleasure to text input. An additional use of line detection is to reduce the space consuming functions like spacebar with a single line or thin bar. Thus, the selection of a function is simply to write across the line representing the function. As a line or thin bar, it becomes much easier to place functions within one area to minimize space occupancy and optimize text input flow.

어떤 문자가 필기되는지를 결정하는 로직은 필기된 최초 문자, 필기된 최종 문자 또는 스타일러스가 스크린/표면과의 접촉상태를 벗어난 이후, 또는 필기의 시작이후 소정 시간 간격 이후, 대부분에 걸쳐 필기된 문자(필기된 검출 영역의 면적 백분율) 중 어느 하나일 수 있다. 검출 영역으로서 문자의 횡단 라인이 사용되는 양호한 실시예의 사용시, 이때, 필기된 문자를 결정하기 위한 양호한 로직은 그 검출 라인이 횡단하여 필기되는 최초 문자이다.The logic that determines which character is written is that the first character, the last character, or the stylus that has been written out of contact with the screen / surface, or after a predetermined time interval since the start of the handwriting, The area percentage of the written detection area). In the use of the preferred embodiment where a transversal line of characters is used as the detection area, then, the good logic for determining the handwritten character is the first character across which the detection line is handwritten.

필기 요소는 임의의 보조키이 또는 스티키 보조키이(스티키는 다른 키이와 조화하여 작용하도록 키이를 누른 상태로 유지할 필요 없이 보조키이를 일회 누르는 것만을 필요로하는 것을 의미함-예로서, 스티키 시프트)와 조화 사용되어 대문자, 식별 문자 또는 심지어 기능 호출 같은 필기된 문자의 특수한 변형을 생성할 수 있다.The handwriting element means that any auxiliary key or sticky auxiliary key (sticky only needs to press the auxiliary key once, without having to hold the key down in order to work in concert with other keys-eg sticky shift) Harmonization can be used to create special variations of handwritten characters such as capital letters, identifying characters or even function calls.

필기 방법은 감소된 키보드 시스템에서 다중-문자 키이와 양호하게 동작하며, 그 이유는 필기가 태핑과는 특징적으로 다르기 때문에, 원래의 불명료한 태핑 기능을 무효화할 필요가 없기 때문이다. 따라서, 다중-문자 버튼에 대하여, TenGO 같은 감소된 키보드 시스템 또는 T9®(Tegic Communications, Inc.), iTAPTM(Motorola, Inc.), eZiText®(Zi Corporation) 또는 WordWise®(Eatoni Ergonomics, Inc.) 같은 번호 전화 패드 시스템에 의해 사용되는 바와 같이, 사용자가 다중-문자 버튼을 두드릴 때, 일반적인 기능이 트리거되고, 예측가능한 텍스트 입력 또는 다중 태핑이 되게 하지만, 다중-문자 세트의 특정 문자 위에 필기가 이루어지면, 이때, 문자가 명료하게 무단으로 입력된다.The writing method works well with multi-character keys in a reduced keyboard system, since the writing is characteristically different from tapping, so there is no need to invalidate the original obscure tapping function. Thus, for multi-character buttons, reduced keyboard systems such as TenGO or T9® (Tegic Communications, Inc.), iTAP (Motorola, Inc.), eZiText® (Zi Corporation) or WordWise® (Eatoni Ergonomics, Inc.). As used by the same number phone pad system, when a user taps on a multi-character button, the normal function is triggered, causing predictive text entry or multi-tapping, but writing over a specific character in the multi-character set If is made, at this time, the character is clearly entered without permission.

이 방법의 확장은 감소된 키보드 시스템의 하드-키이 실행에도 마찬가지로 적용된다. 이는 하드 버튼에 대한 일부 변경을 필요로 한다. 눌러질 수 있는 보다 큰 다중-문자 버튼 이외에도, 또한, 버튼은 누르는 반대로 이동(예로서, 당겨 올림, 전향 누름 또는 후향 누름)할 수 있는 문자 세트의 개별 문자를 나타내는 개별 버튼으로 구성된다. 다중 문자 버튼에 대한 다른 대안은 직선으로 아래로 누르는 것 이외에, 조이스틱 같은 이동 기능 또는 레디얼 누름 기능을 갖도록 하는 것이며, 각 이동 또는 방향적 누름은 다중-문자 버튼의 문자 세트 중의 일 문자를 나타낸다.The extension of this method also applies to hard-key execution of the reduced keyboard system. This requires some changes to the hard button. In addition to the larger multi-character buttons that can be pressed, the buttons also consist of individual buttons representing individual characters of the character set that can be moved oppositely (eg, pulled up, pressed forward or pressed backward). Another alternative to multi-character buttons is to have a joystick-like move function or radial press function, in addition to pressing down in a straight line, each move or directional press represents one character in the character set of the multi-character button.

상기 설명의 견지에서, 본 발명의 실시예의 정수는 작은 가상 버튼 상에 텍스트를 명료하게 입력하기 위해 보다 적은 실수의 방법을 제공하는 것이며, 또한, 명료한 텍스트 입력과 명료한 텍스트 입력을 무단 통합하는 것이다. 비록, 문자를 참조하였지만, 본 발명의 시스템의 교지는 임의의 심볼, 숫자 또는 기능으로 쉽게 확장될 수 있다. 여기에 구체적으로 설명된 것들을 제외한, 그리고, 첨부된 청구범위에 규정된 이들 교지의 범주를 초과하여 확장하지 않는 본 발명의 교시의 다수의 실시예가 가능하다. 특히, 시스템의 응용처는 표준 명료 코드 또는 텍스트 입력을 필요로 하는 종래의 장치나 모바일 장치에서의 응용에만 한정되지 않으며, 다른 응용처 및 실시예, 심지어, 기록 표면 패드, 센서 펜 및 광학적 또는 이동 인식 입력 장치 같은 "초현대적"(덜 종래의) 것들 또는 좌표를 검출하거나 필기 운동을 구별할 수 있는 한, 비난수적 문자의 스트링을 입력하기 위한 수단을 필요로하는 임의의 전자 장치에도 매우 적합하다. In view of the above description, the integer of the embodiment of the present invention is to provide a less real way of entering text clearly on a small virtual button, and also to incorporate unambiguous text input and clear text input. will be. Although referred to letters, the teachings of the system of the present invention can be easily extended to any symbol, number or function. Many embodiments of the teachings of the present invention are possible, except those specifically described herein, and that do not extend beyond the scope of these teachings as defined in the appended claims. In particular, the application of the system is not limited to applications in conventional devices or mobile devices that require standard clear code or text input, and in other applications and embodiments, even recording surface pads, sensor pens, and optical or moving recognition inputs. It is also well suited for any electronic device that requires means for inputting strings of non-criminal characters, as long as it can detect "ultra-modern" (less conventional) or coordinates or distinguish handwriting movements, such as devices.

또한, 여기에 설명된 텍스트 입력 방법은 텍스트 입력의 소정의 다양성을 위해 필요한 키이 스트로크의 수를 추가로 감소시키기 위해 다른 잘 아려진 단어 완성 메커니즘과 혼합-및-정합될 수도 있다. 부가적으로, 그 정수가 남아 있고, 텍스트 입력 기능이 완전한 한, 감소된 키보드 시스템을 완성하기 위해 모든 방법 및 메커니즘이 실행되어야 하는 것은 아니며, 따라서, 비용, 소프트웨어 크기, 실행 요구조건 및/또는 심지어 소정의 소유를 원하는(그러나 임계적이지 않은) 기능성을 감소시키기 위해 특정 방법 및 메커니즘의 생략이 가능하다. In addition, the text input methods described herein may be mixed-and-matched with other well-known word completion mechanisms to further reduce the number of key strokes required for some variety of text input. In addition, as long as the integer remains and the text input function is complete, not all methods and mechanisms have to be implemented to complete a reduced keyboard system, thus, cost, software size, implementation requirements and / or even It is possible to omit certain methods and mechanisms in order to reduce the functionality desired (but not critical) for some ownership.

비록, 본 발명의 실시예를 예시의 목적으로 여기에서 설명하였지만, 본 발명의 범주로부터 벗어나지 않고 다양한 변용이 이루어질 수 있다는 것을 인지할 것이다. 따라서, 본 발명은 첨부된 청구범위를 제외하고는 제한되지 않는다.Although embodiments of the invention have been described herein for purposes of illustration, it will be appreciated that various modifications may be made without departing from the scope of the invention. Accordingly, the invention is not limited except as by the appended claims.

Claims (48)

제스처 및 스트로크 입력 방법을 이용하여 명료하게 가상 키보드의 데이터 값 또는 데이터 심볼을 입력하기 위한 스크린 텍스트 입력 시스템용 입력 방법이며,Input method for the screen text input system for clearly inputting data values or data symbols of the virtual keyboard using gesture and stroke input methods. 상기 스크린의 가상 키보드에 키이 스트로크를 나타내는 문자를 횡단하여 스트로크하도록 손가락 또는 대상물을 이용하는 단계와,Using a finger or an object to stroke across a character representing a key stroke on a virtual keyboard of the screen; 상기 스크린의 터치를 검출하는 단계와,Detecting a touch of the screen; 상기 스크린의 접촉 지점으로부터 스트로크 운동을 검출하는 단계와,Detecting stroke movement from a point of contact of the screen; 스크린에 디스플레이된 문자를 나타내는 데이터 값 또는 데이터 심볼이 그 또는 그 근처에 할당된 스크린의 검출 영역과 스트로크 경로의 위치 지점을 매칭시키는 단계와,Matching a location of the stroke path with a detection area of the screen to which a data value or data symbol indicative of a character displayed on the screen is assigned; 횡단 스트로크된 검출 영역에 할당된 데이터 값 또는 데이터 심볼을 텍스트 입력으로써 디스플레이하는 단계를 포함하는 입력 방법. And displaying the data value or data symbol assigned to the transverse stroked detection area as a text input. 제1항에 있어서, 상기 제스처는 또한 횡단 스트로크외에도, 문자 상에서 원그리기, 횡단, 십자그리기 및 지그재그 운동을 포함하고, 스트로크 횡단과 동일한 기능성을 갖는 입력 방법.The input method of claim 1, wherein the gesture also includes circle, cross, cross and zigzag motion on a character, in addition to the cross stroke, and has the same functionality as the cross stroke. 제2항에 있어서, 상기 제스처는 제스처하는 동안 가상 키보드의 디지털 잉크 궤적을 이탈하는 입력 방법.The input method of claim 2, wherein the gesture leaves the digital ink trajectory of the virtual keyboard during the gesture. 제1항에 있어서, 상기 스트로크 경로의 위치 지점을 스크린의 검출 영역과 매칭시키는 단계는 가장 자주 또는 처음의 공통 검출 영역으로부터 가장 적게 또는 최후의 공통 검출 영역의 매칭 순서로 수행되는 입력 방법. The input method according to claim 1, wherein the matching of the position point of the stroke path with the detection area of the screen is performed most frequently or in matching order of least or last common detection area from the first common detection area. 제1항에 있어서, 상기 문자를 나타내는 검출 영역은 문자 내에 있거나 이를 커버하는 검출 박스이고, 상기 검출 박스는 임의의 형상 및 크기를 갖는 입력 방법.The input method according to claim 1, wherein the detection area representing the character is a detection box within or covering the character, wherein the detection box has any shape and size. 제1항에 있어서, 상기 문자를 나타내는 검출 영역은 문자를 횡단하거나 또는 그에 인접한 검출 라인인 입력 방법. The input method according to claim 1, wherein the detection area representing the character is a detection line traversing or adjacent to the character. 제6항에 있어서, 상기 검출 라인은 키보드 상에 보여지는 입력 방법.The input method of claim 6, wherein the detection line is displayed on a keyboard. 제6항에 있어서, 상기 스페이스바아는 가상 키보드의 단일 라인 또는 얇은 바아로 나타내어지고, 또한 검출 라인에 따라 선택되는 입력 방법.The input method of claim 6, wherein the space bar is represented by a single line or a thin bar of a virtual keyboard and is selected according to a detection line. 제1항에 있어서, 상기 문자 또는 문자를 나타내는 버튼은 제스처 대신에 태핑하면 정상 버튼 입력에 따라 수행되는 단계를 더 포함하는 입력 방법.The input method of claim 1, further comprising performing the normal button input when tapping instead of a gesture. 제1항에 있어서, 보조 키이 또는 스티키 보조 키이가 제스처와 협력하여 이용되면 어퍼 케이스, 발음기호 및 악센트 형식 케이스 또는 기능과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 디스플레이하는 단계를 더 포함하는 입력 방법.The input method of claim 1, further comprising displaying data values or data symbols in different cases, such as upper cases, phonetic symbols, and accent type cases or functions when the auxiliary key or sticky auxiliary key is used in concert with a gesture. . 제1항에 있어서, 상기 디스플레이되는 문자는 제스처가 끝난 임의의 다음의 문자들을 무시하고 제스처가 끝난 최초 문자인 입력 방법.The input method of claim 1, wherein the displayed character is the first character that is gestured, ignoring any subsequent characters that are gestured. 제1항에 있어서, 상기 디스플레이되는 문자는 제스처가 끝난 임의의 이전 문자들을 무시하고 제스처가 끝난 최종 문자인 입력 방법.The input method of claim 1, wherein the displayed character is the last character gestured, ignoring any previous characters that have been gestured. 제1항에 있어서, 상기 디스플레이되는 문자는 제스처가 끝난 적은 빈도의 임의의 다른 문자들을 무시하고 제스처가 끝난 가장 빈도가 많은 문자인 입력 방법.The input method according to claim 1, wherein the displayed character is the most frequent character of the gesture ignoring any other character of the less frequent gesture. 제6항에 있어서, 상기 디스플레이되는 문자는 검출 라인의 중심으로부터 멀리 제스처된 임의의 다른 문자들을 무시하고 검출 라인의 중심에 가장 근접한 제스처가 끝난 문자인 입력 방법.The input method according to claim 6, wherein the displayed character is a gestured character closest to the center of the detection line ignoring any other characters gestured away from the center of the detection line. 제1항에 있어서, 상기 문자들은 제스처가 끝난 순서로 제스처가 끝난 각각의 문자들을 디스플레이하는 입력 방법.The input method of claim 1, wherein the characters display respective gestured characters in a gestured order. 제1항에 있어서, 상기 스크린은 터치 스크린 또는 센서 패드 또는 펜 기반 입력과 유사한 센서 대상물 또는 센서로 작동하는 스크린 또는 가상 스크린인 입력 방법.The input method of claim 1, wherein the screen is a screen or a virtual screen acting as a sensor object or a sensor similar to a touch screen or a sensor pad or pen-based input. 제1항에 있어서, 상기 문자는 다중 문자 키이의 문자들 중 하나인 입력 방법.The input method of claim 1, wherein the character is one of characters of a multi-character key. 제17항에 있어서, 문자를 나타내는 문자 또는 다중 문자 키이가 횡단 스트로크 대신에 태핑되면 다중 문자 키이 입력에 따라 수행되는 단계를 더 포함하는 입력 방법.18. The method of claim 17, further comprising the step of performing the multi-character key upon input if a character or multi-character key representing the character is tapped instead of the cross stroke. 스크린 텍스트 입력 시스템이며,Screen text input system, 스크린 상에 가상 키보드를 표시하는 디스플레이 루틴과,A display routine for displaying a virtual keyboard on the screen; 상기 가상 키보드에 디스플레이된 문자들을 나타내는 가상 키보드의 다양한 검출 영역에 할당된 데이터 값과 데이터 심볼의 저장된 세트와,A stored set of data values and data symbols assigned to various detection areas of the virtual keyboard representing characters displayed on the virtual keyboard; 상기 가상 키보드의 터치와 상기 가상 키보드와 접촉하는 필기 경로를 검출하는 입력 루틴과,An input routine for detecting a touch of the virtual keyboard and a writing path in contact with the virtual keyboard; 상기 가상 키보드의 검출 영역을 필기 경로와 매칭시키고 선택된 검출 영역을 결정하는 매칭 루틴과,A matching routine for matching the detection area of the virtual keyboard with a writing path and determining a selected detection area; 상기 선택된 검출 영역을 나타내는 데이터 값 또는 데이터 심볼을 표시하는 출력 루틴을 포함하는 스크린 텍스트 입력 시스템.And an output routine for displaying a data value or data symbol representing said selected detection area. 제19항에 있어서, 상기 가상 키보드와 접촉하는 필기 경로는 필기 동안 가상 키보드의 디지털 잉크 궤적을 이탈하는 스크린 텍스트 입력 시스템.20. The screen text input system of claim 19 wherein the writing path in contact with the virtual keyboard leaves the digital ink trajectory of the virtual keyboard during writing. 제19항에 있어서, 상기 매칭 루틴은 가상 키보드의 검출 영역을 가장 빈도가 높거나 처음의 공통 입력 검출 영역에서 가장 빈도수가 낮거나 최후의 공통 검출 영역까지의 매칭 순서로 필기 경로와 매칭되는 스크린 텍스트 입력 시스템.20. The screen text of claim 19, wherein the matching routine matches the writing path with the writing path in a matching order from the detection area of the virtual keyboard to the highest frequency or the lowest frequency or the last common detection area. Input system. 제19항에 있어서, 상기 문자를 나타내는 검출 영역은 문자 내에 또는 이를 커버하는 검출 박스이고, 상기 검출 박스는 임의의 형상 및 크기일 수 있는 스크린 텍스트 입력 시스템.20. The screen text input system of claim 19, wherein the detection area representing the character is a detection box within or covering the character, wherein the detection box can be any shape and size. 제19항에 있어서, 상기 문자를 나타내는 검출 영역은 문자를 횡단 또는 그에 근접한 검출 라인인 스크린 텍스트 입력 시스템.20. The screen text input system according to claim 19, wherein the detection area representing the character is a detection line crossing or proximate the character. 제23항에 있어서, 상기 검출 라인은 가상 키보드에서 보여지는 스크린 텍스트 입력 시스템.The screen text input system of claim 23, wherein the detection line is viewed on a virtual keyboard. 제23항에 있어서, 스페이스바아는 가상 키보드의 단일 라인 또는 얇은 바아로 나타내어지고, 이는 검출 라인에 따라 선택되는 스크린 텍스트 입력 시스템.24. The screen text input system of claim 23 wherein the space bar is represented by a single line or a thin bar of the virtual keyboard, which is selected according to the detection line. 제19항에 있어서, 상기 입력 루틴은 정상 버튼 입력에 따라 가상 키보드의 필기 경로없이 터치를 검출하는 스크린 텍스트 입력 시스템.The screen text input system of claim 19, wherein the input routine detects a touch without a writing path of a virtual keyboard according to a normal button input. 제19항에 있어서, 어퍼 케이스, 발음기호 및 악센트 형식 케이스 또는 기능과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 디스플레이하기 위해 보조 키이 또는 스티키 보조 키이가 제스처와 협력하여 이용되는 스크린 텍스트 입력 시스템.20. The screen text input system of claim 19, wherein an auxiliary key or sticky auxiliary key is used in conjunction with a gesture to display data values or data symbols in different cases, such as upper cases, phonetic symbols, and accent type cases or functions. 제19항에 있어서, 상기 매칭 루틴은 필기가 끝난 임의의 다음의 검출 영역을 무시하고 필기가 끝난 최초의 검출 영역을 선택된 검출 영역으로 결정하는 스크린 텍스트 입력 시스템.20. The screen text input system of claim 19, wherein the matching routine ignores any next detected detection area that is written and determines the first detection area that is written as the selected detection area. 제19항에 있어서, 상기 매칭 루틴은 필기가 끝난 임의의 이전 검출 영역을 무시하고 필기가 끝난 최종 검출 영역을 선택된 검출 영역으로 결정하는 스크린 텍스트 입력 시스템. 20. The screen text input system of claim 19, wherein the matching routine ignores any written previous detection area and determines the written last detection area as the selected detection area. 제19항에 있어서, 상기 매칭 루틴은 필기가 끝난 적은 빈도의 임의의 다른 검출 영역을 무시하고 필기가 끝난 가장 빈도가 많은 검출 영역을 선택된 검출 영역으로 결정하는 스크린 텍스트 입력 시스템. 20. The screen text input system of claim 19, wherein the matching routine ignores any other less frequently detected detection area that is written down and determines the most frequently detected detection area as the selected detection area. 제19항에 있어서, 상기 매칭 루틴은 검출 라인의 중심으로부터 멀리 필기된 임의의 다른 검출 영역을 무시하고 검출 라인의 중심에 가장 근접한 필기가 끝난 검출 영역을 선택된 검출 영역으로 결정하는 스크린 텍스트 입력 시스템. 20. The screen text input system of claim 19, wherein the matching routine ignores any other detection area written away from the center of the detection line and determines the written detection area closest to the center of the detection line as the selected detection area. 제19항에 있어서, 상기 매칭 루틴은 스트로크가 끝난 순서로 스트로크가 끝난 각각의 검출 영역용으로 검출 영역이 선택되는 것을 결정하는 스크린 텍스트 입력 시스템. 20. The screen text input system of claim 19, wherein the matching routine determines that a detection region is selected for each stroked stroked region in stroked order. 제19항에 있어서, 상기 스크린은 터치 스크린 또는 센서 패드 또는 펜 기반 입력과 유사한 센서 대상물 또는 센서로 작동하는 스크린 또는 가상 스크린인 스크린 텍스트 입력 시스템. 20. The screen text input system of claim 19 wherein the screen is a screen or virtual screen acting as a sensor object or sensor similar to a touch screen or sensor pad or pen based input. 제19항에 있어서, 상기 가상 키보드는 문자들로 구성된 세트를 표시하는 각각의 다중 문자 키이를 갖는 다중 문자 키이들을 구비한 감소된 키보드 시스템인 스크린 텍스트 입력 시스템.20. The screen text input system of claim 19 wherein the virtual keyboard is a reduced keyboard system having multiple character keys with each multiple character key representing a set of characters. 제34항에 있어서, 상기 입력 루틴은 정상 다중 문자 키이 입력에 따라 다중 문자 키이에서 필기 경로 없이 터치를 검출하는 스크린 텍스트 입력 시스템.35. The screen text input system of claim 34 wherein the input routine detects a touch without a handwriting path in the multi-character key in accordance with the normal multi-character key input. 복수의 키이를 구비하고, 각각의 키이는 적어도 하나의 특성을 갖고, 상기 특성은 키보드의 키이 스트로크를 나타내는 데이터 값, 기능 또는 데이터 심볼이고, 상기 키이는 다중 문자 키이에서 태핑하는 정상 운동과 반대방향 운동할 수 있는 구성된 개별 데이터 값 또는 데이터 심볼을 나타내는 개별 문자 키이들로 구성된 다중 문자 키이이고, 스트로크 텍스트 입력 방법을 이용하여 불명료 및 명료 텍스트 입력 사이에서 모드를 변경할 필요 없이 명료하게 문자를 입력하기 위한 감소된 키보드 시스템의 입력 방법이며, A plurality of keys, each key having at least one characteristic, said characteristic being a data value, function or data symbol representing a keystroke of a keyboard, said key being opposite to the normal movement of tapping on a multi-character key It is a multi-character key consisting of individual character keys representing a configured data value or data symbol that can be moved, and is used to enter characters clearly without having to change modes between ambiguity and clarity text input using the stroke text input method. Input method of reduced keyboard system, 정상 다중 문자 키이 입력에 따라 태핑에 반대 방향으로 개별 문자 키이를 이동시키는 단계와,Moving the individual character keys in the opposite direction to tapping according to the normal multi-character keys input; 상기 개별 문자 키이를 나타내는 데이터 값 또는 데이터 심볼을 디스플레이하는 단계를 포함하는 입력 방법.Displaying a data value or data symbol representing the individual character key. 제36항에 있어서, 개별 문자 키이로 구성된 다중 문자 키이 대신에 태핑 외에 다중 방향으로 이동될 수 있는 단일 버튼이 있고, 각각의 방향은 태핑에 반대 방향으로 구성된 개별 문자 키이를 이동시키는 스트로크 텍스트 입력 방법을 나타내는 입력 방법. 37. The method of claim 36 wherein there is a single button that can be moved in multiple directions in addition to tapping instead of multiple letter keys consisting of individual letter keys, each direction moving individual letter keys configured in opposite directions to tapping. Input method that indicates. 제36항에 있어서, 보조 키이 또는 스티키 보조 키이가 제스처와 협력하여 이용되면 어퍼 케이스, 발음기호 및 악센트 형식 케이스 또는 기능과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 디스플레이하는 단계를 더 포함하는 입력 방법.37. The input method of claim 36, further comprising displaying data values or data symbols in different cases, such as upper cases, phonetic symbols, and accented type cases or functions when the auxiliary key or sticky auxiliary key is used in concert with a gesture. . 제36항에 있어서, 문자를 나타내는 버튼이 스트로크되는 대신에 태핑되고 태핑에 반대 방향으로 이동되면 정상 다중 문자 키이 입력에 따라 수행되는 단계를 더 포함하는 입력 방법.37. The input method of claim 36, further comprising the step of performing a normal multi-character key upon input if the button representing the character is tapped instead of stroked and moved in the opposite direction to tapping. 제39항에 있어서, 동일한 다중 문자 키이 세트로부터 하나 이상의 개별 문자 키이가 함께 태핑되면, 여전히 단일 다중 문자 키이 입력에 따라 수행되는 입력 방법.40. The method of claim 39 wherein if a same multi-character key is tapped together from one or more individual character keys, a single multi-character key is still performed according to the input. 정보를 입력하기 위한 감소된 키보드 시스템이며,Reduced keyboard system for entering information 복수의 키이와,Plural kiwis, 데이터를 저장하기 위한 데이터베이스와,A database for storing data, 상기 정보를 디스플레이하기 위한 디스플레이를 포함하고,A display for displaying said information, 상기 각각의 키이는 적어도 하나의 특성을 갖고, 상기 특성은 키보드의 키이 스트로크를 나타내는 데이터 값, 기능 또는 데이터 심볼이고, 상기 키이는 다중 문자 키이에서 태핑하는 정상 운동과 반대방향 운동할 수 있는 구성된 개별 데이터 값 또는 데이터 심볼을 나타내는 개별 문자 키이들로 구성된 다중 문자 키이이고,Each key has at least one characteristic, the characteristic being a data value, function, or data symbol representing a key stroke of a keyboard, wherein the key is a configured individual capable of moving in the opposite direction to the normal movement of tapping on a multi-character key. Is a multicharacter key consisting of individual character keys that represent a data value or data symbol, 상기 데이터는 상기 키이의 입력 키이 스트로크 시퀀스와 연관된 데이터 문자 또는 데이터 심볼인 감소된 키보드 시스템. Said data is a data character or data symbol associated with said key's input sequence of strokes. 제41항에 있어서, 명료하게 문자를 입력하기 위해, 다중 문자 키이 입력용의 정상 태핑에 반대 방향으로 개별 문자 키이를 이동시킴에 따라 불명료 및 명료 텍스트 입력 사이에서 모드를 변경하는 것을 요구하지 않는 감소된 키보드 시스템.42. The method of claim 41, wherein in order to enter characters clearly, the reduction does not require changing the mode between ambiguity and clarity text input as the multi-character keys move individual character keys in the opposite direction to normal tapping for input. Keyboard system. 제41항에 있어서, 개별 문자 버튼으로 구성된 다중 문자 키이 대신에 태핑 외에 다중 방향으로 이동될 수 있는 단일 버튼이 있고, 각각의 방향은 태핑에 반대 방향으로 구성된 개별 문자 키이를 이동시키는 것과 동일한 것을 나타내는 감소된 키보드 시스템. 42. The method of claim 41, wherein there is a single button that can be moved in multiple directions in addition to tapping instead of multiple letter keys consisting of individual letter buttons, each direction representing the same as moving individual letter keys configured in opposite directions to tapping Reduced keyboard system. 제43항에 있어서, 명료하게 문자를 입력하기 위해, 다중 문자 키이 입력용의 정상 태핑에 반대 방향으로 이를 구성하는 개별 데이터 값 또는 데이터 심볼을 나타내는 방향으로 버튼을 이동시킴에 따라 불명료 및 명료 텍스트 입력 사이에서 모드를 변경하는 것을 요구하지 않는 감소된 키보드 시스템.44. The method of claim 43, wherein in order to enter characters intelligibly, ambiguity and intelligibility text input as the multi-character key moves the button in a direction representing an individual data value or data symbol constituting it in a direction opposite to normal tapping for input. Reduced keyboard system that does not require changing modes between. 제41항에 있어서, 어퍼 케이스, 발음기호 및 악센트 형식 케이스 또는 기능과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 입력하기 위해 보조 키이 또는 스티키 보조 키이가 태핑에 반대 방향으로 개별 문자 키이를 이동시키는 것과 협력하여 이용되는 감소된 키보드 시스템. 42. The method of claim 41, further comprising: shifting individual character keys in opposite directions to tapping to input data values or data symbols in different cases, such as upper cases, phonetic symbols, and accent type cases or functions. Reduced keyboard system used in concert. 제43항에 있어서, 어퍼 케이스, 발음기호 및 악센트 형식 케이스 또는 기능과 같은 상이한 케이스에서 데이터 값 또는 데이터 심볼을 입력하기 위해 보조 키이 또는 스티키 보조 키이가 태핑에 반대 방향으로 데이터 값 또는 데이터 심볼을 나타내는 방향으로 버튼을 이동시키는 것과 협력하여 이용되는 감소된 키보드 시스템. 44. The method of claim 43, wherein the auxiliary key or sticky auxiliary key represents the data value or data symbol in a direction opposite to tapping to enter a data value or data symbol in a different case, such as an upper case, a phonetic symbol, and an accent type case or function. Reduced keyboard system used in conjunction with moving a button in a direction. 제41항에 있어서, 다중 문자 키이 입력에 따라 입력하기 위해, 문자를 나타내는 다중 문자 키이가 태핑되는 감소된 키보드 시스템.42. The reduced keyboard system of claim 41 wherein a multi-character key representing a character is tapped for inputting the multi-character key in accordance with the input. 제43항에 있어서, 다중 문자 키이에 따라 입력하기 위해, 문자를 나타내는 다중 문자 버튼이 태핑되는 감소된 키보드 시스템.44. The reduced keyboard system of claim 43, wherein a multi-character button representing a character is tapped for input according to the multi-character key.
KR1020057016436A 2003-03-03 2004-03-02 Unambiguous text input method for touch screens and reduced keyboard systems KR20050119112A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SG200300895-0 2003-03-03
SG200300895-0A SG135918A1 (en) 2003-03-03 2003-03-03 Unambiguous text input method for touch screens and reduced keyboard systems

Publications (1)

Publication Number Publication Date
KR20050119112A true KR20050119112A (en) 2005-12-20

Family

ID=32960432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057016436A KR20050119112A (en) 2003-03-03 2004-03-02 Unambiguous text input method for touch screens and reduced keyboard systems

Country Status (7)

Country Link
US (1) US20060119582A1 (en)
EP (1) EP1599787A1 (en)
JP (1) JP2006524955A (en)
KR (1) KR20050119112A (en)
CN (1) CN1777858A (en)
SG (1) SG135918A1 (en)
WO (1) WO2004079557A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933398B1 (en) * 2007-06-11 2009-12-22 삼성전자주식회사 Character input apparatus and method for automatically switching input modes in terminal having touch screen
US8018441B2 (en) 2007-06-11 2011-09-13 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
KR20120133670A (en) * 2011-05-31 2012-12-11 엘지전자 주식회사 Mobile device and control method for the same
WO2022005238A1 (en) * 2020-07-01 2022-01-06 윤경숙 Character input method

Families Citing this family (231)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7555732B2 (en) * 2004-03-12 2009-06-30 Steven Van der Hoeven Apparatus method and system for a data entry interface
US7669135B2 (en) * 2004-07-15 2010-02-23 At&T Mobility Ii Llc Using emoticons, such as for wireless devices
DE102004042907A1 (en) * 2004-09-01 2006-03-02 Deutsche Telekom Ag Online multimedia crossword puzzle
US7443386B2 (en) * 2004-11-01 2008-10-28 Nokia Corporation Mobile phone and method
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
US8185841B2 (en) 2005-05-23 2012-05-22 Nokia Corporation Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen
US7886233B2 (en) 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
EP1900103B1 (en) * 2005-06-16 2011-04-27 Firooz Ghassabian Data entry system
US20070013667A1 (en) * 2005-07-12 2007-01-18 Chong Tsun Y Electronic device and method for entering characters therein
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
TW200713060A (en) * 2005-09-30 2007-04-01 Primax Electronics Ltd Adaptive input method for touch screen
CN1949158B (en) * 2005-10-11 2012-02-15 摩托罗拉移动公司 Input of text to electronic apparatus
KR100756986B1 (en) * 2006-08-18 2007-09-07 삼성전자주식회사 Apparatus and method for changing writing-mode in portable terminal
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
KR100910577B1 (en) 2006-09-11 2009-08-04 삼성전자주식회사 Computer system and control method thereof
KR100770936B1 (en) * 2006-10-20 2007-10-26 삼성전자주식회사 Method for inputting characters and mobile communication terminal therefor
KR100762944B1 (en) 2007-02-24 2007-10-04 홍성찬 Editor for screen keyboard on display device and editing method therefor
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8059097B2 (en) * 2007-04-27 2011-11-15 Virgin Mobile USA LP Shared symbol and emoticon key and methods
EP1988444A3 (en) * 2007-04-30 2016-03-02 Samsung Electronics Co., Ltd. Character input apparatus and method
US8146003B2 (en) * 2007-08-17 2012-03-27 Microsoft Corporation Efficient text input for game controllers and handheld devices
KR101436091B1 (en) * 2007-08-28 2014-09-01 삼성전자 주식회사 Button-selection apparatus and method based on continuous trajectories of pointer
CN101174190B (en) 2007-09-30 2013-06-12 上海触乐信息科技有限公司 Software keyboard entry method for implementing composite key on screen of electronic equipments
WO2009059479A1 (en) * 2007-11-07 2009-05-14 Pohsien Chiu Input devices with virtual input interfaces
US8351666B2 (en) * 2007-11-15 2013-01-08 General Electric Company Portable imaging system having a seamless form factor
US8175639B2 (en) * 2007-11-26 2012-05-08 Nasrin Chaparian Amirmokri NanoPC mobile personal computing and communication device
US8674947B2 (en) * 2007-12-21 2014-03-18 Xerox Corporation Lateral pressure sensors for touch screens
TWI393029B (en) * 2007-12-31 2013-04-11 Htc Corp Electronic device and method for executing commands in the same
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US20090241027A1 (en) * 2008-03-18 2009-09-24 Dapeng Gao Handheld electronic device and associated method for improving typing efficiency on the device
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20090289902A1 (en) * 2008-05-23 2009-11-26 Synaptics Incorporated Proximity sensor device and method with subregion based swipethrough data entry
US20090288889A1 (en) * 2008-05-23 2009-11-26 Synaptics Incorporated Proximity sensor device and method with swipethrough data entry
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
CN101676851B (en) * 2008-09-17 2012-04-25 中国移动通信集团公司 Input method and input device
KR101606140B1 (en) * 2008-11-03 2016-03-24 삼성전자주식회사 Apparatus and method for inputting character in a computing device having touch screen
US8671357B2 (en) * 2008-11-25 2014-03-11 Jeffrey R. Spetalnick Methods and systems for improved data input, compression, recognition, correction, and translation through frequency-based language analysis
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8839154B2 (en) 2008-12-31 2014-09-16 Nokia Corporation Enhanced zooming functionality
US20100199226A1 (en) * 2009-01-30 2010-08-05 Nokia Corporation Method and Apparatus for Determining Input Information from a Continuous Stroke Input
US20100194694A1 (en) * 2009-01-30 2010-08-05 Nokia Corporation Method and Apparatus for Continuous Stroke Input
US8831687B1 (en) * 2009-02-02 2014-09-09 Dominic M. Kotab Two-sided dual screen mobile phone device
WO2010095769A1 (en) * 2009-02-23 2010-08-26 Kwak Hee Soo Character input apparatus using a touch sensor
US20100241984A1 (en) * 2009-03-21 2010-09-23 Nokia Corporation Method and apparatus for displaying the non alphanumeric character based on a user input
US20100251176A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Virtual keyboard with slider buttons
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
TWI492140B (en) * 2009-08-28 2015-07-11 Compal Electronics Inc Method for keyboard input and assistant system thereof
US9317116B2 (en) * 2009-09-09 2016-04-19 Immersion Corporation Systems and methods for haptically-enhanced text interfaces
KR101633332B1 (en) * 2009-09-30 2016-06-24 엘지전자 주식회사 Mobile terminal and Method of controlling the same
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
EP2577430A4 (en) * 2010-05-24 2016-03-16 Will John Temple Multidirectional button, key, and keyboard
US8487877B2 (en) 2010-06-10 2013-07-16 Michael William Murphy Character specification system and method that uses a limited number of selection keys
US9021033B2 (en) * 2010-07-23 2015-04-28 International Business Machines Corporation Method to change instant messaging status based on text entered during conversation
US9122318B2 (en) 2010-09-15 2015-09-01 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
US8719014B2 (en) * 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
CN102063255B (en) * 2010-12-29 2013-07-31 百度在线网络技术(北京)有限公司 Input method for touch screen, touch screen and device
CN102637108B (en) * 2011-02-10 2018-03-02 张苏渝 A kind of compound input control method
US9134809B1 (en) * 2011-03-21 2015-09-15 Amazon Technologies Inc. Block-based navigation of a virtual keyboard
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8922489B2 (en) * 2011-03-24 2014-12-30 Microsoft Corporation Text input using key and gesture information
US8624837B1 (en) 2011-03-28 2014-01-07 Google Inc. Methods and apparatus related to a scratch pad region of a computing device
US9342155B2 (en) * 2011-03-31 2016-05-17 Nokia Technologies Oy Character entry apparatus and associated methods
CN102736821B (en) * 2011-03-31 2017-06-16 深圳市世纪光速信息技术有限公司 The method and apparatus that candidate word is determined based on sliding trace
US9182831B2 (en) 2011-04-09 2015-11-10 Shanghai Chule (Cootek) Information Technology Co., Ltd. System and method for implementing sliding input of text based upon on-screen soft keyboard on electronic equipment
US8316319B1 (en) * 2011-05-16 2012-11-20 Google Inc. Efficient selection of characters and commands based on movement-inputs at a user-inerface
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
WO2012162895A1 (en) 2011-06-03 2012-12-06 Google Inc. Gestures for selecting text
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8286104B1 (en) * 2011-10-06 2012-10-09 Google Inc. Input method application for a touch-sensitive user interface
CN102521215B (en) * 2011-11-28 2017-03-22 上海量明科技发展有限公司 Method and system for marking off document
US9244612B1 (en) 2012-02-16 2016-01-26 Google Inc. Key selection of a graphical keyboard based on user input posture
WO2013130682A1 (en) * 2012-02-27 2013-09-06 5 Examples, Inc. Date entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US8667414B2 (en) 2012-03-23 2014-03-04 Google Inc. Gestural input at a virtual keyboard
JP5422694B2 (en) * 2012-04-11 2014-02-19 株式会社東芝 Information processing apparatus, command execution control method, and command execution control program
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US8484573B1 (en) 2012-05-23 2013-07-09 Google Inc. Predictive virtual keyboard
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
CN102841752B (en) * 2012-08-21 2015-10-07 刘炳林 The characters input method of a kind of human-computer interaction device and device
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US20140267050A1 (en) * 2013-03-15 2014-09-18 Logitech Europe S.A. Key layout for an input device
US9081482B1 (en) 2012-09-18 2015-07-14 Google Inc. Text input suggestion ranking
US9471220B2 (en) 2012-09-18 2016-10-18 Google Inc. Posture-adaptive selection
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8656296B1 (en) 2012-09-27 2014-02-18 Google Inc. Selection of characters in a string of characters
US9021380B2 (en) 2012-10-05 2015-04-28 Google Inc. Incremental multi-touch gesture recognition
US8782549B2 (en) 2012-10-05 2014-07-15 Google Inc. Incremental feature-based gesture-keyboard decoding
US8701032B1 (en) 2012-10-16 2014-04-15 Google Inc. Incremental multi-word recognition
US9569107B2 (en) 2012-10-16 2017-02-14 Google Inc. Gesture keyboard with gesture cancellation
US8612213B1 (en) 2012-10-16 2013-12-17 Google Inc. Correction of errors in character strings that include a word delimiter
US8850350B2 (en) 2012-10-16 2014-09-30 Google Inc. Partial gesture text entry
US8843845B2 (en) 2012-10-16 2014-09-23 Google Inc. Multi-gesture text input prediction
US8914751B2 (en) 2012-10-16 2014-12-16 Google Inc. Character deletion during keyboard gesture
US8713433B1 (en) 2012-10-16 2014-04-29 Google Inc. Feature-based autocorrection
US9557818B2 (en) 2012-10-16 2017-01-31 Google Inc. Contextually-specific automatic separators
US8994681B2 (en) 2012-10-19 2015-03-31 Google Inc. Decoding imprecise gestures for gesture-keyboards
US8704792B1 (en) 2012-10-19 2014-04-22 Google Inc. Density-based filtering of gesture events associated with a user interface of a computing device
US9304595B2 (en) 2012-10-19 2016-04-05 Google Inc. Gesture-keyboard decoding using gesture path deviation
US8819574B2 (en) 2012-10-22 2014-08-26 Google Inc. Space prediction for text input
US9804777B1 (en) 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
US20140123049A1 (en) * 2012-10-30 2014-05-01 Microsoft Corporation Keyboard with gesture-redundant keys removed
US8806384B2 (en) 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
US9129100B2 (en) * 2012-12-13 2015-09-08 Huawei Technologies Co., Ltd. Verification code generation and verification method and apparatus
US8832589B2 (en) 2013-01-15 2014-09-09 Google Inc. Touch keyboard using language and spatial models
US9047268B2 (en) 2013-01-31 2015-06-02 Google Inc. Character and word level language models for out-of-vocabulary text input
US9454240B2 (en) 2013-02-05 2016-09-27 Google Inc. Gesture keyboard input of non-dictionary character strings
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US8782550B1 (en) 2013-02-28 2014-07-15 Google Inc. Character string replacement
US8701050B1 (en) 2013-03-08 2014-04-15 Google Inc. Gesture completion path display for gesture-based keyboards
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (en) 2013-03-15 2018-12-14 苹果公司 Training at least partly voice command system
US9665246B2 (en) 2013-04-16 2017-05-30 Google Inc. Consistent text suggestion output
US8825474B1 (en) 2013-04-16 2014-09-02 Google Inc. Text suggestion output using past interaction data
US9122376B1 (en) 2013-04-18 2015-09-01 Google Inc. System for improving autocompletion of text input
US8887103B1 (en) 2013-04-22 2014-11-11 Google Inc. Dynamically-positioned character string suggestions for gesture typing
US8756499B1 (en) 2013-04-29 2014-06-17 Google Inc. Gesture keyboard input of non-dictionary character strings using substitute scoring
US9081500B2 (en) 2013-05-03 2015-07-14 Google Inc. Alternative hypothesis error correction for gesture typing
US8997013B2 (en) 2013-05-31 2015-03-31 Google Inc. Multiple graphical keyboards for continuous gesture input
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
CN110442699A (en) 2013-06-09 2019-11-12 苹果公司 Operate method, computer-readable medium, electronic equipment and the system of digital assistants
KR101809808B1 (en) 2013-06-13 2017-12-15 애플 인크. System and method for emergency calls initiated by voice command
US9280276B2 (en) * 2013-07-09 2016-03-08 Htc Corporation Method for controlling electronic device with touch screen and electronic device thereof
DE112014003653B4 (en) 2013-08-06 2024-04-18 Apple Inc. Automatically activate intelligent responses based on activities from remote devices
CN104615262A (en) * 2013-11-01 2015-05-13 辉达公司 Input method and input system used for virtual keyboard
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9940016B2 (en) 2014-09-13 2018-04-10 Microsoft Technology Licensing, Llc Disambiguation of keyboard input
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9619043B2 (en) 2014-11-26 2017-04-11 At&T Intellectual Property I, L.P. Gesture multi-function on a physical keyboard
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
USD766224S1 (en) * 2014-12-08 2016-09-13 Michael L. Townsend Interface for a keypad, keyboard, or user activated components thereof
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10452264B2 (en) 2015-04-30 2019-10-22 Michael William Murphy Systems and methods for word identification that use button press type error analysis
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US20160357411A1 (en) * 2015-06-08 2016-12-08 Microsoft Technology Licensing, Llc Modifying a user-interactive display with one or more rows of keys
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179374B1 (en) * 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
CN107015637B (en) * 2016-10-27 2020-05-05 阿里巴巴集团控股有限公司 Input method and device in virtual reality scene
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10671181B2 (en) * 2017-04-03 2020-06-02 Microsoft Technology Licensing, Llc Text entry interface
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. Far-field extension for digital assistant services
EP3625652B1 (en) 2017-05-19 2022-09-14 Michael William Murphy An interleaved character selection interface
CN108762654B (en) * 2018-05-15 2020-09-29 Oppo(重庆)智能科技有限公司 Text editing method, text editing device, text editing terminal and computer readable storage medium
US11922007B2 (en) 2018-11-29 2024-03-05 Michael William Murphy Apparatus, method and system for inputting characters to an electronic device
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2006163A1 (en) * 1988-12-21 1990-06-21 Alfred B. Freeman Keyboard express typing system
JP3546337B2 (en) * 1993-12-21 2004-07-28 ゼロックス コーポレイション User interface device for computing system and method of using graphic keyboard
US5574482A (en) * 1994-05-17 1996-11-12 Niemeier; Charles J. Method for data input on a touch-sensitive screen
BR9609807A (en) * 1995-07-26 1999-12-21 Martin T King Ambiguity cancellation system with reduced keyboard
US5953541A (en) * 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
US6104317A (en) * 1998-02-27 2000-08-15 Motorola, Inc. Data entry device and method
KR100327209B1 (en) * 1998-05-12 2002-04-17 윤종용 Software keyboard system using the drawing of stylus and method for recognizing keycode therefor
TW546943B (en) * 1999-04-29 2003-08-11 Inventec Corp Chinese character input method and system with virtual keyboard
AU2001247877A1 (en) * 2000-03-31 2001-10-15 Ventris, Inc. Method and apparatus for input of alphanumeric text data from twelve key keyboards
US20030014239A1 (en) * 2001-06-08 2003-01-16 Ichbiah Jean D. Method and system for entering accented and other extended characters
KR100446613B1 (en) * 2001-07-16 2004-09-04 삼성전자주식회사 Information input method using wearable information input device
US6882337B2 (en) * 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
EP1508132A4 (en) * 2002-05-30 2009-08-05 Mattel Inc Interactive multi-sensory reading system electronic teaching/learning device
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US7159191B2 (en) * 2003-03-03 2007-01-02 Flextronics Sales & Marketing A-P Ltd. Input of data
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933398B1 (en) * 2007-06-11 2009-12-22 삼성전자주식회사 Character input apparatus and method for automatically switching input modes in terminal having touch screen
US8018441B2 (en) 2007-06-11 2011-09-13 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
USRE48242E1 (en) 2007-06-11 2020-10-06 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
USRE49670E1 (en) 2007-06-11 2023-09-26 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
KR20120133670A (en) * 2011-05-31 2012-12-11 엘지전자 주식회사 Mobile device and control method for the same
WO2022005238A1 (en) * 2020-07-01 2022-01-06 윤경숙 Character input method

Also Published As

Publication number Publication date
CN1777858A (en) 2006-05-24
WO2004079557A1 (en) 2004-09-16
JP2006524955A (en) 2006-11-02
EP1599787A1 (en) 2005-11-30
SG135918A1 (en) 2007-10-29
US20060119582A1 (en) 2006-06-08

Similar Documents

Publication Publication Date Title
KR20050119112A (en) Unambiguous text input method for touch screens and reduced keyboard systems
US10275153B2 (en) Multidirectional button, key, and keyboard
US6295052B1 (en) Screen display key input unit
JP6115867B2 (en) Method and computing device for enabling interaction with an electronic device via one or more multi-directional buttons
US6741235B1 (en) Rapid entry of data and information on a reduced size input area
US9189156B2 (en) Keyboard comprising swipe-switches performing keyboard actions
Nesbat A system for fast, full-text entry for small electronic devices
US9304683B2 (en) Arced or slanted soft input panels
US6104317A (en) Data entry device and method
US8583440B2 (en) Apparatus and method for providing visual indication of character ambiguity during text entry
US20060055669A1 (en) Fluent user interface for text entry on touch-sensitive display
US20130227460A1 (en) Data entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
JP2013527539A5 (en)
JP2003015808A (en) Touch-type key input apparatus
US20150100911A1 (en) Gesture responsive keyboard and interface
KR20120107110A (en) Features of data entry system
EP2394208A1 (en) Data entry system
JP4462120B2 (en) Character input device
KR20100069089A (en) Apparatus and method for inputting letters in device with touch screen
Dunlop et al. Pickup usability dominates: a brief history of mobile text entry research and adoption
JP4614505B2 (en) Screen display type key input device
JP2005275635A (en) Method and program for japanese kana character input
US20100164876A1 (en) Data input device
Bhatti et al. Mistype resistant keyboard (NexKey)
KR20160124754A (en) Overloaded four-row qwerty-like keypad layout

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid