KR20110061433A - Method for inputting information of touch screen panal - Google Patents

Method for inputting information of touch screen panal Download PDF

Info

Publication number
KR20110061433A
KR20110061433A KR1020090118080A KR20090118080A KR20110061433A KR 20110061433 A KR20110061433 A KR 20110061433A KR 1020090118080 A KR1020090118080 A KR 1020090118080A KR 20090118080 A KR20090118080 A KR 20090118080A KR 20110061433 A KR20110061433 A KR 20110061433A
Authority
KR
South Korea
Prior art keywords
guide
motion
touch screen
screen panel
touch
Prior art date
Application number
KR1020090118080A
Other languages
Korean (ko)
Other versions
KR101162243B1 (en
Inventor
박철
Original Assignee
박철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박철 filed Critical 박철
Priority to KR1020090118080A priority Critical patent/KR101162243B1/en
Publication of KR20110061433A publication Critical patent/KR20110061433A/en
Application granted granted Critical
Publication of KR101162243B1 publication Critical patent/KR101162243B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

PURPOSE: A character input method of a touch screen panel is provided to conveniently input various characters, numbers, or symbols through guide motion and to enlarge the size of a button image. CONSTITUTION: An initial touch point of drag operation, a guide motion, and additional input information to the guide motion are inputted to a mobile terminal. A touch screen panel(100) senses the inputted drag operation. The inputted drag operation and the guide motion are selected. The additional input information corresponding to the selected guide motion is displayed on the touch screen panel.

Description

터치스크린 패널의 문자입력방법{METHOD FOR INPUTTING INFORMATION OF TOUCH SCREEN PANAL}Character input method of touch screen panel {METHOD FOR INPUTTING INFORMATION OF TOUCH SCREEN PANAL}

본 발명은 문자를 입력할 수 있는 터치스크린 패널을 이용한 정보입력방법에 관한 것으로서, 보다 자세하게는 문자의 입력을 보다 편리하게 할 수 있는 터치스크린 패널의 문자입력방법에 관한 것이다.The present invention relates to an information input method using a touch screen panel capable of inputting characters, and more particularly, to a character input method of a touch screen panel capable of inputting characters more conveniently.

터치스크린 패널은 일반적으로 감압 방식 혹은 정전 방식을 채택하고 있다. 감압 방식은 소정의 압력에 의해서 상부 및 하부 전극이 선택적으로 접촉하여 신체의 접촉 위치를 파악할 수 있으며, 정전 방식은 신체의 접촉 혹은 접근에 의해서 저항 전극의 변화하는 정전 용량 값을 측정하여 신체의 접촉 위치를 파악할 수 있다.The touch screen panel generally adopts a pressure reduction method or an electrostatic method. In the decompression method, the upper and lower electrodes are selectively contacted by a predetermined pressure to determine the contact position of the body. The electrostatic method measures the changing capacitance value of the resistance electrode by contacting or approaching the body, thereby contacting the body. I can figure out the location.

상술한 터치스크린 패널은 터치스크린 패널의 상면을 사용자가 손이나 터치 팬을 이용하여 터치(touch)하거나, 드래그(drag) 혹은 드로우(draw)하는 동작 등을 인식할 수 있다.The touch screen panel may recognize an operation of touching, dragging, or drawing the upper surface of the touch screen panel using a hand or a touch fan.

예를 들면, 상술한 터치스크린 패널을 장착한 이동통신단말기에서는 사용자가 터치스크린 패널 상에서 터치하여 원하는 정보를 입력할 수 있는 다수의 버튼 들이 이미지화되며, 사용자는 이를 터치하는 동작으로 원하는 정보를 선택할 수 있다. For example, in the mobile communication terminal equipped with the above-described touch screen panel, a plurality of buttons that allow the user to input desired information by touching on the touch screen panel are imaged, and the user can select the desired information by touching it. have.

다만, 종래의 터치스크린 패널의 최초 화면에서는 미리 특정된 문자를 버튼 이미지를 통해서 터치스크린 패널의 화면에 표시하는데, 이때, 보다 많은 다양한 문자를 표시하도록 터치스크린 패널의 평면을 분할할 경우, 버튼 이미지가 너무 작아져 사용자가 터치 동작을 수행하기 어려운 문제가 있다.However, in the first screen of the conventional touch screen panel, predetermined characters are displayed on the screen of the touch screen panel through the button image. In this case, when the plane of the touch screen panel is divided to display more various characters, the button image is displayed. Is too small for the user to perform a touch operation.

비록, 터치스크린 패널 상의 화면을 전환하여, 다른 키 버튼들을 표시하는 방법을 채택할 수는 있겠으나, 이 역시 화면을 전환해야 하는 불편함이 따른다.Although it is possible to adopt a method of displaying other key buttons by switching the screen on the touch screen panel, this also has the inconvenience of switching the screen.

본 발명은 디스플레이 패널 상에서 제공되는 버튼 이미지에 따른 문자는 물론 그 외에 다양한 문자, 혹은, 숫자, 기호 등을 입력하기 편리한 터치스크린 패널의 문자입력방법을 제공한다.The present invention provides a character input method of a touch screen panel which is convenient for inputting various characters, numbers, symbols, etc. as well as characters according to a button image provided on a display panel.

본 발명은 다양한 문자를 버튼 이미지에 모두 표시하기 위하여 터치스크린 패널 평면을 분할할 경우에, 버튼 이미지의 크기가 너무 작아져 터치하기 어려워지는 불편함을 극복할 수 있는 터치스크린 패널의 문자입력방법을 제공한다.The present invention provides a character input method of a touch screen panel that can overcome the inconvenience of being difficult to touch because the size of the button image is too small when the touch screen panel plane is divided to display various characters on the button image. to provide.

본 발명의 예시적인 일 실시예에 따르면, 문자 입력을 위한 버튼 이미지들을 표시하며, 터치 동작으로 문자를 입력하는 터치스크린 패널의 문자입력방법은, 드래그 동작의 최초 터치 지점 및 이동 방향에 따라서 미리 정의된 가이드 모션 및 각 가이드 모션에 대응하는 추가 입력정보를 유지하는 단계, 터치스크린 패널에서 입력된 드래그 동작을 감지하는 단계, 정의된 가이드 모션 중 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 선택하는 단계, 및 선택된 가이드 모션에 대응하는 추가 입력정보를 터치스크린 패널에 표시하는 단계를 구비한다. According to an exemplary embodiment of the present invention, a character input method of a touch screen panel displaying button images for character input and inputting a character by a touch operation is predefined according to an initial touch point and a moving direction of a drag operation. Maintaining a guide motion and additional input information corresponding to each guide motion, detecting a drag motion input from the touch screen panel, and selecting a guide motion substantially matching the drag motion input among the defined guide motions. And displaying additional input information corresponding to the selected guide motion on the touch screen panel.

본 명세서에서 터치스크린 패널이라 함은, 영상을 표시할 수 있는 유기전계발광장치(organic light emitting diode, OLED), 액정표시장치(liquid crystal display device, LCD) 등의 디스플레이, 및 상기 디스플레이 상부에 제공되어 신체의 접촉을 감압, 저항막 혹은 정전용량 방식으로 감지할 수 있는 터치패널센서를 포함하는 기기를 지칭할 수 있다. In the present specification, a touch screen panel is provided on a display such as an organic light emitting diode (OLED), a liquid crystal display device (LCD), etc. capable of displaying an image, and an upper portion of the display. The electronic device may refer to a device including a touch panel sensor capable of detecting a contact of a body by a reduced pressure, a resistive film, or a capacitive method.

이에 디스플레이에서 제공되는 영상은 투명한 터치패널센서의 상부로 노출되어 특정한 언어의 문자, 숫자, 기호, 그림, 문장부호, 액션 또는 그들의 조합 등을 표시할 수 있다. 여기서 액션이라 함은, 띄어쓰기, 줄 바꾸기, 저장이나 전송 같은 특정 기능 수행 등을 포함할 수 있다. The image provided in the display may be exposed to the upper portion of the transparent touch panel sensor to display letters, numbers, symbols, pictures, punctuation, actions, or a combination thereof of a specific language. In this case, the action may include performing a specific function such as a space, a line feed, a save or a transfer, or the like.

터치패널센서는 신체의 터치를 감지할 수 있는 터치 영역을 제공하는데, 이러한 터치 영역은 디스플레이에서 제공하는 버튼 이미지의 경계를 따라서 분할되고, 그 분할된 터치 영역 각각에서는 신체가 접촉된 좌표를 읽어 들일 수가 있다.The touch panel sensor provides a touch area capable of detecting a touch of the body, which is divided along a boundary of a button image provided by the display, and each of the divided touch areas reads coordinates of the body contact. There is a number.

한편, 버튼 이미지에서 제공하는 문자를 입력하는 것 외에도, 본 발명에서는 버튼 이미지에 대응하는 문자는 물론 그 조합, 혹은 그 외에 문자 혹은 그 조합들을 드래그 동작을 통해서 입력할 수가 있다.Meanwhile, in addition to inputting a character provided in the button image, in the present invention, not only the character corresponding to the button image but also a combination thereof or other characters or combinations thereof may be input through a drag operation.

본 명세서에서 터치 동작이라 함은, 버튼 이미지에서 제공하는 문자를 선택하기 위한 동작으로, 각각의 버튼 이미지의 경계 내측에서 탭핑(tapping) 또는 터치(touch)하는 동작을 포함할 수 있다. 다만, 터치 동작이 버튼 이미지의 경계 내측에서 이루어지는 탭핑 또는 터치하는 동작만을 포함하는 것은 아니며, 실질적으로 각 버튼 이미지의 경계 내측에서 이루어지는 드래그(drag) 혹은 드로우(draw) 동작 또한 포함할 수 있다.In the present specification, the touch operation is an operation for selecting a character provided in a button image, and may include an operation of tapping or touching inside a boundary of each button image. However, the touch operation may not only include a tapping or touching operation performed inside the boundary of the button image, but may also include a drag or draw operation performed substantially inside the boundary of each button image.

한편, 본 명세서에서 드래그 동작이라 함은, 사용자가 터치스크린 패널 상에 신체 일부를 접촉시킨 상태로 이동함으로써, 연속적인 궤적을 갖는 동작을 지칭할 수 있으며, 상기 궤적은 버튼 이미지의 경계를 따르거나, 혹은 버튼 이미지의 경계 를 넘나들어, 특정한 문자를 선택하는 터치 동작과는 구분되는 개념으로 사용될 수 있다.Meanwhile, the drag operation in the present specification may refer to an operation having a continuous trajectory by moving a user's body part in contact with the touch screen panel, and the trajectory may follow a boundary of a button image or It may be used as a concept that is different from the touch operation of crossing a boundary of a button image and selecting a specific character.

상술한 드래그 동작으로 본 발명의 터치스크린 패널의 문자입력방법에서는 추가 입력정보를 선택할 수 있다. In the character input method of the touch screen panel of the present invention by the drag operation described above, additional input information may be selected.

구체적으로 설명하면, 상술한 드래그 동작은 그 최초 터치 지점 및 이동 방향에 따라서 서로 다른 가이드 모션으로 구분되며, 각 가이드 모션에 따라 미리 정의된 추가 입력정보를 선택할 수 있다. In detail, the above-described drag motion may be classified into different guide motions according to the initial touch point and the moving direction, and additional predefined input information may be selected according to each guide motion.

물론, 드래그 동작을 수행하기 전에, 터치스크린 패널의 문자입력방법에서는 드래그 동작의 최초 터치 지점 및 이동 방향에 따라서 미리 정의된 가이드 모션 및 각 가이드 모션에 대응하는 추가 입력정보를 유지하고 있다.Of course, before performing the drag operation, the character input method of the touch screen panel maintains a predefined guide motion and additional input information corresponding to each guide motion according to the initial touch point and the moving direction of the drag operation.

본 명세서에서 가이드 모션이라 함은, 추가 입력정보를 선택하기 위한 드래그 동작을 지칭하는 것으로, 드래그 동작들은 여러 가지 조건에 의해서 각기 구분될 수 있으며, 구분된 각각의 드래그 동작들은 다른 추가 입력정보에 대응하는 가이드 모션으로 선택될 수 있다.In the present specification, the guide motion refers to a drag motion for selecting additional input information. Drag motions may be classified according to various conditions, and each of the divided drag motions may correspond to other additional input information. Can be selected as the guide motion.

상술한 조건들은 드래그 동작의 최초 터치 지점 및 이동 방향뿐만 아니라, 드래그 동작의 최종 터치 지점, 드래그의 이동속도, 최종 터치 지점에서의 터치유지시간 등을 더 포함할 수 있으며, 그 외에도 드래그 동작들을 서로 구분할 수 있는 예를 들면, 드래그 동작이 직선 이동, 곡선 이동 혹은 직선/곡선 이동의 조합을 포함하도록 하거나, 드래그 동작이 상호 이격, 겹침, 평행, 교차, 분기되도록 하는 조건들을 더 포함할 수 있다. The above-described conditions may further include not only an initial touch point and a moving direction of the drag operation, but also a final touch point of the drag operation, a moving speed of the drag, a touch holding time at the last touch point, and the like. For example, the drag operation may include a linear movement, a curved movement, or a combination of linear / curved movements, or may further include conditions for allowing the drag operations to be spaced apart, overlapped, parallel, crossed, and branched.

상술한 여러 가지 조건으로 상호 구분될 수 있는 드래그 동작들은 각각 특정한 가이드 모션으로 정의될 수 있으며, 이렇게 정의된 가이드 모션은 그에 대응하는 추가 입력정보를 가질 수 있다.Drag operations that may be distinguished from each other under the various conditions described above may be defined as specific guide motions, and the guide motions defined as described above may have additional input information corresponding thereto.

이에, 터치스크린 패널에서 드래그 동작이 감지되면, 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 미리 정의된 가이드 모션 중에서 선택할 수 있다. 그 후에, 선택된 가이드 모션에 대응하는 추가 입력정보를 터치스크린 패널에 표시할 수 있다. Thus, when a drag motion is detected in the touch screen panel, a guide motion substantially matching the input drag motion may be selected from predefined guide motions. Thereafter, additional input information corresponding to the selected guide motion may be displayed on the touch screen panel.

즉, 가이드 모션을 통해서, 각각의 가이드 모션에 대응하는 추가 입력정보(특정한 언어의 문자, 숫자, 기호, 그림, 문장부호, 액션, 성조(聲調), 발음변화 또는 그들의 조합)를 터치스크린 패널을 통해서 표시함으로써, 최초 디스플레이 패널 상에서 제공되는 버튼 이미지에 따른 문자 외에도 다양한 문자, 혹은, 숫자, 기호 등을 드래그 동작을 통해서 간편하게 입력할 수 있다. 특히, 가이드 모션을 통해서 중국어의 사성(四聲)을 간단하게 선택하거나, 일본어의 탁음, 반탁음, 요음, 촉음 등을 간단하게 선택할 수도 있다. That is, through the guide motion, additional input information corresponding to each guide motion (letters, numbers, symbols, pictures, punctuation, actions, tones, pronunciation changes, or a combination thereof) of a specific language is displayed on the touch screen panel. By displaying through, it is possible to easily input various characters, numbers, symbols, etc. in addition to the characters according to the button image provided on the first display panel through a drag operation. In particular, guided motions can be used to simply select Chinese personalities, or to simply select Japanese sound, halftone, bass, and tactile sounds.

따라서, 다양한 문자를 한정된 터치스크린 패널에 모두 표시하지 않고도, 그 문자는 물론 그 외에 이미지화되지 않은 문자들까지 입력할 수 있기 때문에, 문자를 모두 표시하기 위하여 버튼 이미지의 크기를 줄여야 하는 문제점을 극복할 수 있다. Therefore, since various characters can be input as well as non-imaged characters without displaying all the various characters on the limited touch screen panel, it is necessary to overcome the problem of reducing the size of the button image to display all the characters. Can be.

한편, 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 선택하는 단계는, 가이드 모션을 감지하기 위한 가이드 영역을 터치스크린 패널 상에 정의하 고, 입력된 드래그 동작이 가이드 영역 내에서 수행되는지 판단하고, 입력된 드래그 동작이 가이드 영역에서 수행되는 경우 입력된 드래그 동작에 대응하는 가이드 모션을 선택하도록 할 수 있다. On the other hand, the step of selecting a guide motion substantially coincident with the input drag motion, defining a guide area for detecting the guide motion on the touch screen panel, and determines whether the input drag motion is performed in the guide area When the input drag operation is performed in the guide region, the guide motion corresponding to the input drag operation may be selected.

여기서, 가이드 영역이라 함은, 드래그 동작이 가이드 모션으로 선택되기 위한 터치패널센서의 영역을 한정한 것으로, 드래그 동작은 터치패널센서 상 어디에서나 이루어질 수 있으나, 가이드 모션으로 인식되기 위해서는 상기 가이드 영역 내에서 이루어져야 한다. 이렇게 드래그 동작이 가이드 영역 내에서 이루어질 경우, 가이드 모션으로 인식되도록 함으로써, 가이드 모션을 위한 드래그 동작의 인식률을 높일 수가 있다. Here, the guide area is defined as the area of the touch panel sensor for the drag operation to be selected as the guide motion, the drag operation can be made anywhere on the touch panel sensor, in order to be recognized as a guide motion in the guide area Should be done in When the drag operation is performed in the guide area as described above, the recognition rate of the drag operation for the guide motion can be increased by being recognized as the guide motion.

다만, 가이드 영역의 형태나 위치는 드래그 동작에 의해서 정의되는 가이드 모션을 드래그 동작으로 수행할 때, 사용자의 편의성을 고려하여 결정되는 것이 바람직하다. However, the shape or position of the guide region is preferably determined in consideration of the user's convenience when performing the guide motion defined by the drag operation as the drag operation.

참고로, 가이드 모션은 드래그, 혹은 드로윙 하는 동작을 모두 포함할 수 있으며, 혹여 상술한 동작을 수행하는 과정에서 가이드 영역 외부로 조금 벗어나더라도 상술한 동작이 대부분이 가이드 영역 내에서 이루어지는 경우 가이드 모션으로 인식될 수 있다. 따라서, 가이드 영역은 가이드 모션의 주변 일부 영역을 더 포함하도록 터치패널센서 상에서 조금 더 여유로운 면적을 갖도록 정의될 수 있다. For reference, the guide motion may include both dragging and drawing operations. If the above-described operations are mostly performed within the guide region even when the guide motion is slightly out of the guide region in the process of performing the above-described operation, the guide motion may be a guide motion. Can be recognized. Accordingly, the guide area may be defined to have a more relaxed area on the touch panel sensor to further include a partial area around the guide motion.

또한, 앞서 설명한 바와 같이, 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 미리 정의된 가이드 모션 중에서 선택할 수 있는데, 여기서, 실질적으로 일치한다 함은, 가이드 모션을 정의하는 요소가 동일 또는 유사한지를 판단하 는 것이 될 수 있으며, 예를 들어 가이드 모션이 최초 터치 지점과 이동 방향으로 정의되는 경우, 최초 터치 지점 또는 그 인접한 지점에서 터치가 시작되었는지 및 이동방향과 평행 또는 유사한 방향으로 이동하는지 여부를 고려하여 판단할 수 있다. 이 외에도 가이드 모션이 이동 길이나 이동 궤적 등으로 정의되는 경우 추가된 요소들을 동일 또는 유사 범위에서 판단할 수 있다. In addition, as described above, a guide motion that substantially matches the input drag motion may be selected from predefined guide motions, wherein substantially matching determines whether the elements defining the guide motion are the same or similar. For example, if the guide motion is defined as the initial touch point and the direction of movement, consider whether the touch is initiated at the initial touch point or its adjacent point and whether it moves in parallel or similar to the direction of movement. Can be judged. In addition, when the guide motion is defined by the movement length or the movement trajectory, the added elements may be determined in the same or similar ranges.

상기 동일 또는 오차 범위를 고려하여 가이드 모션에 대응하는 가이드 영역을 디스플레이 패널 상에 정의할 수 있으며, 가이드 모션의 정확한 궤적 및 그 주변을 포함하는 가이드 영역 내에서 드래그 동작이 입력되는 경우 대응되는 추가 입력정보를 표시하게 할 수 있다.The guide area corresponding to the guide motion may be defined on the display panel in consideration of the same or the error range, and when the drag motion is input in the guide area including the exact trajectory of the guide motion and its periphery, an additional input corresponding to the guide motion may be defined. Information can be displayed.

또한, 본 발명에 따른 터치스크린 패널의 문자입력방법에서는 상술한 가이드 모션을 가시화하기 위한 가이드 이미지를 터치스크린 패널 상에 표시할 수 있다. In addition, in the character input method of the touch screen panel according to the present invention, a guide image for visualizing the above-described guide motion may be displayed on the touch screen panel.

본 명세서에서 가이드 이미지라 함은, 가이드 모션으로 선택되기 위한 드래그 동작을 특정하는 상술한 조건들 예를 들면 최초 터지 지점, 이동 방향, 최종 터치 지점, 드래그의 이동속도, 최종 터치 지점에서의 터치유지시간 등을 사용자에게 알려주기 위하여 가시적으로 표현되는 이미지들을 지칭할 수 있다. In the present specification, the guide image refers to the above-described conditions for specifying a drag operation to be selected as the guide motion, for example, the initial touch point, the moving direction, the last touch point, the moving speed of the drag, and the touch holding at the last touch point. It may refer to images that are visually represented to inform the user of time and the like.

다만, 가이드 이미지는 버튼 이미지와 겹쳐지지 않도록, 평상 시에는 표시되지 않다가, 사용자의 드래그 동작이 감지되는 경우 잠시 표시될 수 있으며, 그 표시는 버튼 이미지보다 어둡거나 얇은 두께로 표시하는 등의 방법을 통해서 버튼 이미지와 혼돈되는 것을 방지할 수 있다. However, the guide image is not normally displayed so as not to overlap with the button image, but may be displayed for a while when a user's dragging motion is detected, and the display is darker or thinner than the button image. To avoid confusion with the button image.

물론, 가이드 이미지의 표시 여부는 사용자의 숙련도 차이에 의해서 차이가 있을 수 있으며, 구체적으로, 추가 입력정보에 대응하는 가이드 모션에 대한 숙지 정도에 따라서 달라질 수 있다. 예를 들면, 사용자가 가이드 모션에 대한 숙지 정도가 좋다면 가이드 이미지를 전혀 표시하지 않을 수 있으며, 사용자의 숙지 정도가 중간 정도라면, 앞서 설명한 바와 같이, 드래그 동작이 감지되는 경우 잠시 표시할 수 있다. 또한, 처음 사용하거나 사용기간이 매우 짧은 사용자의 경우 가이드 모션에 대한 숙지 정도가 매우 낮을 것이므로, 가이드 이미지를 항시 표시할 수도 있다.Of course, whether or not to display the guide image may vary depending on the user's skill level, and in detail, may vary depending on the degree of knowledge of the guide motion corresponding to the additional input information. For example, if the user is well aware of the guide motion, the guide image may not be displayed at all. If the user is moderately familiar, as described above, if the drag motion is detected, the guide image may be temporarily displayed. . In addition, since the degree of acquaintance with the guide motion is very low for a first-time user or a user who has a very short period of use, the guide image may be always displayed.

따라서, 사용자는 가이드 이미지에 의해서 자신이 선택 가능한 다양한 가이드 모션을 가시적으로 확인하고, 이를 통해서 보다 쉽게 원하는 추가 입력정보를 선택하기 위한 가이드 모션을 수행할 수 있다.Therefore, the user visually checks various guide motions that can be selected by the guide image, and thus, the user can perform guide motions for easily selecting desired additional input information.

또한, 가이드 영역 내에서 드래그 동작을 위한 최초 터치를 감지하고, 가이드 영역 내에서의 최초 터치 지점과 동일한 최초 터치 지점을 갖는 가이드 모션에 대응하는 추가 입력정보를 표시함으로써, 사용자는 자신이 선택 가능한 다양한 가이드 모션을 미리 보게 되고 이를 통해서 보다 쉽게 원하는 추가 입력정보를 선택하기 위한 가이드 모션을 수행할 수도 있다. 이렇게 표시되는 추가 입력정보에 대한 이미지 역시 가이드 이미지에 포함될 수 있다. Also, by detecting an initial touch for a drag operation in the guide area and displaying additional input information corresponding to the guide motion having the same initial touch point as the initial touch point in the guide area, the user can select various The guide motion may be previewed, and guide motion for selecting additional input information may be easily performed. The image of the additional input information displayed in this way may also be included in the guide image.

또한, 가이드 모션에 대응하는 추가 입력정보는 사용자에 의해서 미리 특정될 수도 있으며, 이에 사용자는 특정한 추가 입력정보를 선택하기 위한 특정한 가이드 모션을 기억하는데 보다 유리할 수 있다.Further, the additional input information corresponding to the guide motion may be specified in advance by the user, and thus the user may be more advantageous in storing the specific guide motion for selecting the specific additional input information.

본 발명은 최초 디스플레이 패널 상에서 제공되는 버튼 이미지에 따른 문자 외에도 가이드 모션을 통해서 다양한 문자, 혹은, 숫자, 기호 등을 편리하게 입력할 수 있다. According to the present invention, various characters, numbers, symbols, etc. may be conveniently input through the guide motion in addition to the characters according to the button images provided on the first display panel.

본 발명은 가이드 모션을 통해서 버튼 이미지에서 제공되는 문자는 물론 그 외에 다양한 문자, 혹은, 숫자, 기호 등을 입력함으로써, 다양한 문자를 버튼 이미지에 모두 표시하기 위하여 터치스크린 패널 상에 문자의 수 보다 적은 버튼 이미지를 표시할 수 있으며, 이에 버튼 이미지의 크기를 크게 할 수 있다.According to the present invention, by inputting not only the characters provided in the button image through the guide motion but also various characters or numbers, symbols, etc., the number of characters on the touch screen panel is smaller than the number of characters on the touch screen panel. The button image can be displayed, thereby increasing the size of the button image.

이하 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다. 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 대해 구체적인 설명은 본 발명의 요지를 명료하게 하기 위하여 생략될 수 있다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the present invention is not limited or limited by the embodiments. In describing the present invention, a detailed description of well-known functions or constructions may be omitted for clarity of the present invention.

도 1은 본 발명의 일 실시예에 따른 터치스크린 패널을 이용한 문자입력방법이 적용되는 터치스크린 패널의 단면도이며, 도 2 내지 도 5는 본 발명의 일 실시예에 따른 터치스크린 패널의 문자입력방법을 설명하기 위한 도면들이다.1 is a cross-sectional view of a touch screen panel to which a text input method using a touch screen panel according to an embodiment of the present invention is applied, and FIGS. 2 to 5 are text input methods of a touch screen panel according to an embodiment of the present invention. Figures for explaining.

먼저 도 1을 참조하면, 터치스크린 패널(100)은 디스플레이(110) 및 터치패널센서(150)를 포함한다. First, referring to FIG. 1, the touch screen panel 100 includes a display 110 and a touch panel sensor 150.

디스플레이(110)는 영상을 표시할 수 있는 유기전계발광장치, 액정표시장치 등으로 제공될 수 있다. The display 110 may be provided as an organic light emitting device, a liquid crystal display, or the like capable of displaying an image.

터치패널센서(150)는 일반적인 감압 방식 혹은 정전 방식을 채택하는 것을 두루 적용하여 사용할 수 있으며, 본 실시예에서 터치패널센서(150)는 개인휴대단말기의 디스플레이(110) 상에 장착되며, 구체적으로 디스플레이(110) 상에 위치하는 하부 투명필름(122) 및 하부 투명필름(122) 상면에 형성되는 하부 투명전극(124)을 포함하는 하부 시트부재(120), 하부 시트부재(120) 상부에 제공되는 상부 투명필름(132) 및 상부 투명필름(132)의 저면에서 하부 투명전극(124)에 대응하여 형성되는 상부 투명전극(134)을 포함하는 상부 시트부재(130), 및 상부 투명필름(132) 및 하부 투명필름(122) 사이에 개재되는 절연 부재(140)를 포함한다. The touch panel sensor 150 may be used by adopting a general pressure reduction method or an electrostatic method, and in this embodiment, the touch panel sensor 150 is mounted on the display 110 of the personal portable terminal. It is provided on the lower sheet member 120 and the lower sheet member 120 including a lower transparent film 122 positioned on the display 110 and a lower transparent electrode 124 formed on an upper surface of the lower transparent film 122. An upper sheet member 130 including an upper transparent film 132 and an upper transparent electrode 134 formed on a bottom surface of the upper transparent film 132 to correspond to the lower transparent electrode 124, and an upper transparent film 132. ) And an insulating member 140 interposed between the lower transparent film 122.

도 2는 본 발명에 따른 터치스크린 패널의 문자입력방법을 적용한 터치스크린 패널의 정면도이다. 2 is a front view of the touch screen panel to which the character input method of the touch screen panel according to the present invention is applied.

도 2에 도시된 바와 같이, 상술한 디스플레이(110)는 한글의 자음 및 모음을 입력하기 위한 버튼 이미지(230)들을 표시하며, 버튼 이미지(230)들은 투명한 터치패널센서(150)를 통해서 노출되어 사용자가 시각적으로 확인할 수 있다. 본 실시예에서 버튼 이미지(230)에는 한글을 표시하고 있으나, 경우에 따라서 버튼 이미지는 한글 외에도 영문이나, 기타 다른 언어를 표시할 수도 있으며, 도시된 바와 같이, 문장 부호 혹은 줄 바꾸기와 같은 액션을 입력할 수 있는 버튼 이미지(230)들을 더 제공할 수도 있다.As shown in FIG. 2, the above-described display 110 displays button images 230 for inputting consonants and vowels of Korean characters, and the button images 230 are exposed through the transparent touch panel sensor 150. The user can visually confirm. In the present embodiment, the button image 230 displays Korean, but in some cases, the button image may display English or other languages in addition to Korean. As shown, an action such as a punctuation mark or line break may be performed. It may further provide a button image 230 that can be input.

한편, 터치패널센서(150)는 신체의 터치를 감지하는 터치 영역(210)을 제공하는데, 이러한 터치 영역(210)은 디스플레이(110)에서 제공하는 버튼 이미지(230)의 경계를 따라서 분할되어 있으며, 그 분할된 터치 영역(210) 각각에서는 신체가 접촉된 좌표를 읽어 들일 수가 있다.On the other hand, the touch panel sensor 150 provides a touch area 210 for detecting a touch of the body, which is divided along the boundary of the button image 230 provided by the display 110. In each of the divided touch regions 210, the coordinates of contact with the body can be read.

이에, 사용자는 원하는 문자를 버튼 이미지(230)를 통해서 시각적으로 확인하고, 손이나 스타일러스팬 등을 이용하여 버튼 이미지(230)를 터치하면, 터치된 지점에 대응하는 분할된 터치 영역(210)의 좌표가 감지되고, 감지된 좌표에 해당하는 문자를 입력할 수 있다.Accordingly, when the user visually checks the desired character through the button image 230 and touches the button image 230 by using a hand or a stylus pan, the user of the divided touch area 210 corresponding to the touched point. Coordinates are detected, and a character corresponding to the detected coordinates can be input.

상술한 바와 같이, 사용자의 터치에 의해서 선택된 문자 혹은 기호들은 터치 영역(210)과 구분되는 터치패널센서(150)의 상부 영역에 마련된 표시 영역(220)에서 표시될 수 있다. As described above, the letters or symbols selected by the user's touch may be displayed in the display area 220 provided in the upper area of the touch panel sensor 150 which is separated from the touch area 210.

상술한 터치스크린 패널(100)에 적용될 수 있는 본 발명에 따른 문자입력방법에서는 터치스크린 패널(100) 상에서 이루어지는 드래그 동작을 감지할 수 있도록 하여, 버튼 이미지(230)에서 제공하는 문자는 물론 그 외의 다른 문자나 숫자, 기호, 그림, 문장부호, 액션(enter 또는 스페이스) 또는 그들의 조합을 포함하는 추가 입력정보를 선택할 수 있다.In the text input method according to the present invention, which can be applied to the above-described touch screen panel 100, the drag operation performed on the touch screen panel 100 can be sensed, so that the text provided by the button image 230 can be used as well as other characters. You can select additional input information, including other letters or numbers, symbols, pictures, punctuation, actions (enter or space), or a combination thereof.

이하, 드래그 동작에 의해서 정의되는 가이드 모션 및 가이드 모션이 수행되는 가이드 영역, 및 가이드 이미지에 대해서 상세하게 설명한다. Hereinafter, the guide motion defined by the drag operation, the guide region in which the guide motion is performed, and the guide image will be described in detail.

도 2에 도시된 바와 같이, 본 발명에 따른 터치스크린 패널(100)의 문자입력방법은 드래그 동작의 최초 터치 지점 및 이동 방향에 따라서 미리 정의된 가이드 모션 및 각 가이드 모션에 대응하는 추가 입력정보를 유지한다. As shown in FIG. 2, in the character input method of the touch screen panel 100 according to the present invention, a predefined guide motion and additional input information corresponding to each guide motion are defined according to an initial touch point and a moving direction of a drag operation. Keep it.

터치스크린 패널(100)의 상에 점선으로 표시되는 사각형 및 사각형 내부에 대각선들은 가이드 영역(240)을 제공하며, 가이드 영역(240)에서는 사용자에 의한 드래그 동작을 감지할 수 있다.The rectangles indicated by dotted lines on the touch screen panel 100 and the diagonal lines in the rectangles provide a guide area 240, and the guide area 240 may detect a drag operation by a user.

가이드 영역(240) 내에서 이루어지는 드래그 동작은 드래그 동작의 최초 터치 지점 및 이동 방향에 따라서 서로 구분될 수 있으며, 이렇게 구분되는 드래그 동작 각각이 가이드 모션에 해당한다.Drag operations performed in the guide region 240 may be distinguished from each other according to the initial touch point and the moving direction of the drag operation, and each of the divided drag operations corresponds to the guide motion.

또한, 드래그 동작은 최초 터치 지점 및 이동 방향은 물론 최종 터치 지점, 드래그의 이동속도, 최종 터치 지점에서의 터치유지시간 등에 의해서도 각각 구분되어 각각 그에 대응하는 가이드 모션에 해당될 수 있을 것이다. In addition, the drag operation may be divided by the initial touch point and the moving direction as well as the last touch point, the moving speed of the drag, and the touch holding time at the last touch point, and may correspond to the guide motions corresponding thereto.

이에, 사용자가 드래그 동작을 수행하면, 터치패널센서(150)는 이를 감지하고, 입력된 드래그 동작이 가이드 영역(240) 내에서 수행되는지를 판단한 후에, 드래그 동작이 가이드 영역(240)에서 수행되는 경우, 드래그 동작에 대응하는 가이드 모션을 선택하여, 가이드 모션에 대응하는 추가 입력정보를 선택할 수 있다. Thus, when the user performs the drag operation, the touch panel sensor 150 detects this, determines whether the input drag operation is performed in the guide area 240, and then the drag operation is performed in the guide area 240. In this case, the guide motion corresponding to the drag motion may be selected to select additional input information corresponding to the guide motion.

여기서, 정의된 가이드 모션 중 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 선택할 수 있으며, 구체적으로, 가이드 모션에 대한 드래그 동작의 오차 범위를 고려하여, 가이드 모션의 정확한 궤적 및 그 주변을 포함하는 가이드 영역 내에서 드래그 동작이 입력되는 경우 대응되는 추가 입력정보를 표시하게 할 수 있다.Here, a guide motion that is substantially identical to the input drag motion among the defined guide motions may be selected. Specifically, in consideration of an error range of the drag motion with respect to the guide motion, the guide motion may include an accurate trajectory of the guide motion and its surroundings. When the drag operation is input within the guide area, corresponding additional input information may be displayed.

도 3은 가이드 영역에서 사용자가 드래그 동작을 수행하는 상태도이며, 도 3에 도시된 바와 같이, 일 예를 들면, 사용자가 우측 직선구간을 상부에서 하부로 드래그 하는 경우에 해당하는 가이드 모션에 의해서 물음표가 선택되며, 물음표는 표시 영역(220)에 표시된다. 다른 예로, 우측 직선구간을 하부에서 상부로 드래그 하는 경우에는 물음표와 띄어쓰기의 조합을 선택하고, 이를 함께 표시 영역(220)에 표시할 수도 있다. 또한, 가이드 영역 내에서 행해지는 가이드 모션에 따라 또 다른 추가 입력정보를 입력할 수도 있을 것이며, 예를 들면, 대각선을 우측 상부에서 좌측 하부로 드래그 하는 경우에는 백 스페이스(back space)를 입력하거나, 반대로 좌측 하부에서 우측 상부로 드래그 하는 경우에는 마침표와 띄어쓰기를 동시에 입력할 수 있도록 할 수 있다. 3 is a state diagram in which the user performs a drag operation in the guide region, and as shown in FIG. 3, for example, a question mark is displayed by a guide motion corresponding to a case in which the user drags a right straight section from the top to the bottom. Is selected and a question mark is displayed in the display area 220. As another example, when the right straight section is dragged from the bottom to the top, a combination of question marks and spaces may be selected and displayed together on the display area 220. Further, other additional input information may be input according to the guide motion performed in the guide area. For example, when the diagonal line is dragged from the upper right to the lower left, a back space may be input or On the contrary, when dragging from the lower left to the upper right, a period and a space can be input at the same time.

여기서, 가이드 모션에 대응하는 추가 입력정보는 사전에 사용자가 미리 특정해 놓을 수 있다. 이에 사용자는 특정한 추가 입력정보에 대응하는 특정한 가이드 모션을 보다 쉽게 기억해 낼 수 있을 것이다.Here, the additional input information corresponding to the guide motion may be previously specified by the user. Accordingly, the user may more easily remember a specific guide motion corresponding to the specific additional input information.

참고로, 본 실시예에서 가이드 영역(240)은 점선으로 표시되어 있으며, 실지로는 터치스크린 패널(100) 상에 표시되지 않는다. 이는 가이드 영역(240)에 의해서 버튼 이미지(230)들이 가려지는 것을 방지하기 위함이다. For reference, in the present embodiment, the guide area 240 is indicated by a dotted line, and is not actually displayed on the touch screen panel 100. This is to prevent the button images 230 from being blocked by the guide region 240.

다만, 화면에 표시되지 않기 때문에 사용자의 기억에 의존하여 가이드 모션이 수행되는 경우에는 사용자가 원하는 추가 입력정보를 정확하게 선택하는 것이 용이하지 않을 수가 있다. However, since the guide motion is performed depending on the memory of the user because it is not displayed on the screen, it may not be easy to accurately select additional input information desired by the user.

이에 본 발명에 따른 터치스크린 패널의 문자입력방법에서는 가이드 모션으로 선택되기 위한 드래그 동작을 특정하는 조건들 예를 들면 최초 터지 지점, 이동 방향, 최종 터치 지점, 드래그의 이동속도, 최종 터치 지점에서의 터치유지시간 등을 사용자에게 알려주기 위하여 가시적으로 표현되는 이미지들을 제공할 수 있다. Accordingly, in the character input method of the touch screen panel according to the present invention, conditions for specifying a drag operation for selecting as a guide motion, for example, an initial touch point, a moving direction, a final touch point, a moving speed of a drag, and a final touch point In order to notify the user of the touch holding time and the like, visually expressed images may be provided.

본 명세서에서는 가시적으로 화면상에 표현되는 이미지들을 가이드 이미지라 지칭한다. In this specification, images that are visually represented on the screen are referred to as guide images.

다만, 가이드 이미지는 버튼 이미지와 겹쳐지지 않도록, 평상 시에는 표시되지 않다가, 사용자의 터치 동작 혹은 드래그 동작이 감지되는 경우 잠시 표시될 수 있으며, 그 표시는 버튼 이미지보다 어둡거나 얇은 두께로 표시하는 등의 방법을 통해서 버튼 이미지와 혼돈되는 것을 방지할 수 있다. However, the guide image is not normally displayed so as not to overlap with the button image, but may be displayed for a while when a user's touch or drag operation is detected, and the display is darker or thinner than the button image. Etc., to avoid confusion with the button image.

도 4는 앞서 설명한 가이드 영역, 가이드 모션, 및 가이드 이미지를 구분하기 용이하게 도시화한 도면으로, 도 4을 참조하면, 가시되지 않아 점선으로 표시되는 가이드 영역 내측에 가이드 이미지가 표시된다. 그리고, 사용자는 가이드 이미지를 확인하고 이를 토대로 원하는 추가 입력정보를 위한 가이드 모션을 수행할 수 있다. 즉, 도 4에서 가이드 이미지는 가이드 모션의 최초 터치 지점과 그 방향을 가시화하여 제공하고, 가이드 영역과 포개지도록 표시되어 사용자가 엉뚱한 부분의 터치패널센서에서 가이드 모션을 위한 드래그 동작을 수행하는 것을 방지할 수 있다. 4 is a diagram illustrating the guide region, the guide motion, and the guide image so as to be easily distinguished. Referring to FIG. 4, the guide image is displayed inside the guide region that is not visible and is indicated by a dotted line. In addition, the user may check the guide image and perform the guide motion for the desired additional input information based on the guide image. That is, in FIG. 4, the guide image is provided by visualizing the initial touch point and the direction of the guide motion, and is displayed to overlap with the guide area to prevent the user from performing a drag operation for the guide motion in the touch panel sensor of the wrong part. can do.

물론, 사용자가 대략 가이드 모션을 위한 가이드 영역의 위치를 알고 있다면, 도 6를 참조하여 상세하게 후술하겠지만, 꼭 가이드 모션과 가이드 영역은 일치해야 하는 것은 아니다. 특히, 도 5에서 가이드 이미지(250)는 버튼 이미지(230)들의 경계를 따라서 제공된다. 도 5에서 가이드 이미지(250)는 여러 가지 가이드 모션의 방향을 표시한다. Of course, if the user roughly knows the position of the guide region for the guide motion, it will be described in detail later with reference to FIG. 6, but the guide motion and the guide region are not necessarily identical. In particular, in FIG. 5, the guide image 250 is provided along the boundary of the button images 230. In FIG. 5, the guide image 250 indicates various directions of the guide motion.

도 6에 도시된 바와 같이, 가이드 모션으로 선택될 수 있는 드래그 동작의 이동 방향을 버튼 이미지(230)와 겹쳐지도록 표시하고, 사용자는 이동 방향 및 이동 거리에 따라 구분되는 드래그 동작을 수행함으로써, 추가 입력정보를 갖는 가이 드 모션을 수행할 수 있다.As shown in FIG. 6, the moving direction of the drag operation, which may be selected as the guide motion, is displayed to overlap with the button image 230, and the user performs a drag operation that is divided according to the moving direction and the moving distance. Guide motion with input information can be performed.

이때, 가이드 이미지(250)는 가이드 모션의 이동 방향 및 이동 거리 외에도 가이드 모션에 해당하는 추가 입력정보를 함께 표시한다. In this case, the guide image 250 displays additional input information corresponding to the guide motion in addition to the moving direction and the moving distance of the guide motion.

구체적으로, 사용자가 좌측에 배치된 가이드 영역(240) 내에서 위에서 아래로 절반만 드래그 동작할 경우 느낌표(!)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있으며, 끝까지 드래그 동작할 경우 물음표(?)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있다. 또한, 사용자가 좌측에 배치된 가이드 영역(240) 내에서 아래에서 위로 절반만 드래그 동작할 경우 마침표(.)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있으며, 끝까지 드래그 동작할 경우 쉼표(,)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있다.Specifically, when the user drags only the top and bottom half of the guide area 240 disposed on the left side, the user may select a guide motion having additional input information corresponding to the exclamation point (!), And when dragging to the end, a question mark A guide motion having additional input information corresponding to (?) May be selected. In addition, when the user drags only half from the bottom up and down within the guide area 240 disposed on the left side, the user may select a guide motion having additional input information corresponding to a period (.), And if the user drags to the end, a comma ( A guide motion having additional input information corresponding to,) may be selected.

또한, 우측에 배치된 가이드 영역(240) 내에서 위에서 아래로 절반만 드래그 동작할 경우 띄어쓰기에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있으며, 끝까지 드래그 동작할 경우 줄바꾸기(enter)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있다. 또한, 우측에 배치된 가이드 영역(240)을 아래에서 위로 절반만 드래그 동작할 경우 달러($)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있으며, 끝까지 드래그 동작할 경우 원(\)에 해당하는 추가 입력정보를 갖는 가이드 모션을 선택할 수 있다. In addition, in the guide area 240 disposed on the right side, when dragging from the top to the bottom half, a guide motion having additional input information corresponding to a space can be selected, and when dragging to the end, it corresponds to a line break (enter). Guide motion with additional input information can be selected. In addition, when dragging the guide area 240 disposed on the right half only from the bottom up, a guide motion having additional input information corresponding to dollars ($) can be selected. A guide motion having corresponding additional input information can be selected.

또한, 각각 가이드 영역(240)의 상부 좌우 및 하부 좌우에서 가이드 영역(240) 터치패널센서의 중앙을 향하여 화살표 표시된 가이드 이미지(250)들은 각 각 서로 다른 추가 입력정보를 갖는 가이드 모션을 가시적으로 표시하고 있다.In addition, the guide images 250 indicated by arrows toward the center of the touch panel sensor of the guide area 240 in the upper left, right, and bottom left and right of the guide area 240, respectively, visually display the guide motion having different additional input information. Doing.

물론, 상술한 가이드 이미지(250)의 표시 여부는 사용자의 숙련도 차이에 의해서 차이가 있을 수 있으며, 구체적으로, 추가 입력정보에 대응하는 가이드 모션에 대한 숙지 정도에 따라서 달라질 수 있다. 예를 들면, 사용자가 가이드 모션에 대한 숙지 정도가 좋다면 도 3에 도시된 바와 같이, 가이드 이미지를 전혀 표시하지 않을 수 있으며, 사용자의 숙지 정도가 중간 정도라면, 가이드 이미지(250)를 터치나 드래그 동작이 감지되는 경우 잠시 표시할 수 있으며, 처음 사용하거나 사용기간이 매우 짧은 사용자의 경우 가이드 모션에 대한 숙지 정도가 매우 낮을 것이므로, 가이드 이미지(250)를 항시 표시할 수도 있다.Of course, whether or not the above-described guide image 250 is displayed may vary depending on the user's skill level. Specifically, the guide image 250 may vary depending on the degree of knowledge of the guide motion corresponding to the additional input information. For example, if the user is familiar with the guide motion, the guide image may not be displayed at all, as shown in FIG. 3. If the user is moderate, the user may touch the guide image 250. When the drag motion is detected, the display may be displayed for a while. Since the degree of understanding of the guide motion is very low for the first-time user or the user who has a very short period of use, the guide image 250 may be displayed at all times.

따라서, 사용자는 가이드 이미지(250)에 의해서 자신이 선택 가능한 다양한 가이드 모션을 가시적으로 확인하고, 이를 통해서 보다 쉽게 원하는 추가 입력정보를 선택하기 위한 가이드 모션을 보다 쉽게 선택하여 수행할 수 있다.Therefore, the user visually checks various guide motions that can be selected by the guide image 250, and thus, the user can easily select and perform a guide motion for easily selecting desired additional input information.

또한, 가이드 이미지(250)는 도 6에서는 가이드 영역(240)에 인접하게 표시되지만, 도 5에 도시된 것과 같이, 가이드 영역(240) 내부에 배치되어 표시될 수도 있을 수 있으며, 이로 사용자가 가이드 영역과 너무 떨어진 엉뚱한 부분에서 가이드 모션을 위한 드래그 동작을 수행하는 것을 방지할 수 있다. 도 6과 같이, 가이드 이미지(250)를 꼭 가이드 영역(240) 내측에 표시하지 않는 것은 가이드 모션을 위한 드래그 동작이 실질적으로 가이드 모션에 해당하면, 그 드래그 동작은 가이드 모션으로 선택되기 때문에 가능할 수 있다.In addition, although the guide image 250 is displayed adjacent to the guide area 240 in FIG. 6, as shown in FIG. 5, the guide image 250 may be disposed and displayed inside the guide area 240. It is possible to prevent dragging for guided motion in the wrong part too far from the area. As shown in FIG. 6, not necessarily displaying the guide image 250 inside the guide area 240 may be possible because the drag motion for the guide motion corresponds to the guide motion, since the drag motion is selected as the guide motion. have.

상술한 가이드 이미지(250)는 버튼 이미지(230)를 확인하는데 불편함이 없는 한도 내에서 가는 실선이나, 점선 혹은 반투명한 이미지를 통해서 가시화시킬 수 있을 것이며, 버튼 이미지보다 어둡거나 얇은 두께로 표시하는 등의 방법을 통해서 버튼 이미지와 혼돈되는 것을 방지할 수 있다. The guide image 250 described above may be visualized through a thin line, a dotted line or a translucent image within a limit that is not inconvenient to check the button image 230, and is displayed in a darker or thinner thickness than the button image. Etc., to avoid confusion with the button image.

즉, 가이드 영역(240)에서 수행되는 가이드 모션을 통해서, 각각의 가이드 모션에 대응하는 추가 입력정보(특정한 언어의 문자, 숫자, 기호, 그림, 문장부호, 액션 또는 그들의 조합)를 터치스크린 패널(100)을 통해서 표시함으로써, 최초 디스플레이(110) 상에서 제공되는 버튼 이미지(230)에 따른 문자 외에도 다양한 문자, 혹은, 숫자, 기호, 액션 및 그들의 조합을 드래그 동작을 통해서 간편하게 입력할 수 있으며, 다양한 문자를 한정된 터치스크린 패널(100)에 모두 표시하지 않고도, 그 문자는 물론 그 외에 이미지화되지 않은 문자들까지 입력할 수 있기 때문에, 문자를 모두 표시하기 위하여 버튼 이미지(230)의 크기를 줄여야 하는 문제점을 극복할 수 있다. 특히, 가이드 모션을 통해서 중국어의 사성(四聲)을 간단하게 선택하거나, 일본어의 탁음, 반탁음, 요음, 촉음 등을 간단하게 선택할 수도 있기 때문에, 한정된 터치스크린 패널의 면적을 효과적으로 활용할 수 있다. That is, through the guide motion performed in the guide area 240, additional input information corresponding to each guide motion (letters, numbers, symbols, pictures, punctuation, actions, or a combination thereof) corresponding to each guide motion may be touched by the touch screen panel ( By displaying through 100, various characters, numbers, symbols, actions, and combinations thereof may be easily input by dragging, in addition to the characters according to the button image 230 provided on the initial display 110, and various characters. Since it is possible to input not only the characters but also other non-imaged characters without displaying all of the limited touch screen panel 100, the problem of reducing the size of the button image 230 to display all the characters It can be overcome. In particular, the guide motion can be used to simply select the four personalities of Chinese, or simply select the Japanese sound, half-tone, bass, tactile, etc., it is possible to effectively utilize the limited area of the touch screen panel.

한편, 상술한 가이드 영역(240)은 터치패널센서(150) 상에 어디든 제공될 수 있으며, 그 형태는 특정되지 않는다. 다만, 드래그 동작에 의해서 정의되는 가이드 모션을 드래그 동작으로 수행할 때, 사용자가 용이하게 드래그 할 수 있도록 그 형태를 정하는 것이 바람직하다. On the other hand, the above-described guide area 240 may be provided anywhere on the touch panel sensor 150, the shape is not specified. However, when performing the guide motion defined by the drag operation as the drag operation, it is desirable to determine the shape so that the user can easily drag.

예를 들면, 가이드 모션은 직선 이동, 곡선 이동 혹은 직선/곡선 이동의 조합으로 이루어질 수 있으며, 가이드 모션은 상호 구분될 수 있도록 상호 이격, 겹 침, 평행, 교차, 분기 가능하다.For example, the guide motion may be a combination of linear movement, curved movement, or a combination of linear / curved movement, and the guide motion may be spaced apart, overlapped, parallel, crossed, and branched so as to be distinguished from each other.

따라서, 가이드 영역은 가이드 모션의 궤적을 충분히 수용할 수 있을 정도의 면적으로 제공될 수 있다. 물론 반드시 가이드 영역이 가이드 모션의 궤적을 수용하도록 정해지는 것은 아니며, 이는 실질적으로 대부분의 가이드 모션이 가이드 영역 내측에서 수행된다면, 이는 가이드 모션으로 인정될 수 있기 때문이다. Therefore, the guide region may be provided with an area sufficient to accommodate the trajectory of the guide motion. Of course, the guide area is not necessarily set to accommodate the trajectory of the guide motion, since substantially if most of the guide motion is performed inside the guide area, this can be recognized as a guide motion.

구체적으로, 도 3, 도 5 및 도 6에 도시된 바와 같이, 가이드 영역(240)은 사각형을 이루는 4개의 직선 구간과 사각형 내부에 대각선인 2개의 직선 구간을 포함하여, 총 6개의 직선 구간을 포함하는 형태로 제공할 수도 있으며, 도 7에 도시된 바와 같이, 가이드 영역(240)은 좌우에 소정 거리 이격되어 제공된 반원 형태의 2개의 곡선 구간과 4개의 직선 구간으로 제공할 수도 있다. Specifically, as illustrated in FIGS. 3, 5, and 6, the guide area 240 includes four straight sections forming a rectangle and two straight sections diagonally inside the rectangle, thereby totaling six straight sections. 7, the guide region 240 may be provided as two curved sections and four straight sections provided in a semicircle spaced apart from each other by a predetermined distance from left and right.

또한, 도 8에 도시된 바와 같이, 가이드 영역(240) 내에서 드래그 동작을 위한 최초 터치를 감지하면, 가이드 영역(240) 내에서의 최초 터치 지점과 동일한 최초 터치 지점을 갖는 가이드 모션에 대응하는 느낌표, 쉼표, 물음표와 같은 추가 입력정보를 가이드 이미지(250)를 통해서 표시할 수 있다. In addition, as illustrated in FIG. 8, when the first touch for the drag operation is detected in the guide area 240, the guide motion having the same first touch point as the first touch point in the guide area 240 corresponds to the guide motion. Additional input information such as an exclamation point, a comma, and a question mark may be displayed through the guide image 250.

이때, 가이드 이미지(250)는 소정시간 표시될 수 있으며, 사용자는 자신이 선택 가능한 다양한 가이드 모션을 미리 보게 되고 이를 통해서 보다 쉽게 원하는 추가 입력정보를 선택하기 위한 가이드 모션을 수행할 수도 있다. In this case, the guide image 250 may be displayed for a predetermined time, and the user may preview various guide motions that can be selected by the user in advance, and thus may perform a guide motion for easily selecting desired additional input information.

구체적으로, 도 8에 도시된 바와 같이, 사용자가 가이드 영역(240) 우측 상부를 터치하는 순간, 좌측 상부를 최초 터치 지점으로 갖는 느낌표, 쉼표, 물음표에 각각 대응하는 가이드 모션들의 방향과 추가 입력정보가 표시된다. Specifically, as shown in FIG. 8, the moment when the user touches the upper right side of the guide area 240, the direction and additional input information of the guide motions corresponding to the exclamation point, comma, and question mark respectively having the upper left point as the initial touch point. Is displayed.

참고로, 가이드 모션은 가이드 영역(240) 내에서 드래그, 혹은 드로윙 하는 동작을 모두 포함할 수 있으며, 혹여 상술한 동작을 수행하는 과정에서 가이드 영역 외부로 조금 벗어나더라도 상술한 동작이 대부분이 가이드 영역(240) 내에서 이루어지는 경우 가이드 모션으로 인식될 수 있다. For reference, the guide motion may include both dragging and drawing operations in the guide area 240. In the process of performing the above-described operation, the guide motion is mostly out of the guide area. If it is made within 240 may be recognized as a guide motion.

또한, 도 9는 영문을 입력할 수 있는 터치스크린 패널의 정면도이며, 도 9를 참조하면, 디스플레이(110)는 영문을 입력할 수 있도록, 6*4의 배열로 소정의 영역을 갖는 버튼 이미지(230)들을 표시하고 있으며, 각각의 버튼 이미지(230) 영역 내부에는 알파벳을 A부터 Z까지 모두 표시하되, 26개의 영자를 모두 표시할 수 없기 때문에 비교적 사용이 적은 Q와 Z는 P와 Y를 표시하기 위한 버튼 영역을 일부 분할하여 함께 표시할 수 있다. In addition, FIG. 9 is a front view of a touch screen panel capable of inputting English characters. Referring to FIG. 9, the display 110 may input button images having a predetermined area in an array of 6 * 4 to input English characters. 230), and all the alphabets from A to Z are displayed inside the button image area 230, but since Q and Z, which are less used, cannot display all 26 alphabetic characters, P and Y are displayed. The button area may be divided and displayed together.

즉, 버튼 이미지(230)에서 제공하는 문자 외에 또 다른 문자를 입력하기 위해서는, 터치스크린 패널(100)의 표시 화면이 한정되어 버튼 이미지(230)의 크기를 줄여야 표시해야 하나, 본 발명에 따른 터치스크린 패널의 문자입력방법을 사용함으로써, 이를 극복할 수 있다. That is, in order to input another character in addition to the character provided by the button image 230, the display screen of the touch screen panel 100 is limited, and the size of the button image 230 should be reduced. This can be overcome by using the character input method of the screen panel.

구체적으로, 별도의 쉼표, 마침표, 느낌표 등의 문장 부호, 혹은 특수 문자들을 포함하는 추가 입력정보들을 가이드 영역 내에 드래그 동작으로 입력할 수 있도록 하여, 상기 추가 입력정보를 위한 키 배열을 생략할 수 있으며, 그 결과 디스플레이의 공간 내에 배치되는 버튼 이미지의 크기를 크게 조절할 수 있다.In detail, additional input information including punctuation marks such as a separate comma, period, exclamation point, or special characters may be input into the guide area by dragging, so that the key arrangement for the additional input information may be omitted. As a result, the size of the button image disposed in the space of the display can be largely adjusted.

또한, 특수 문자나 혹은 액션의 조합을 한번의 드래그 동작으로 입력하도록 함으로써 사용자가 보다 편리하게 추가 입력정보를 입력할 수 있다. In addition, the user may input additional input information more conveniently by inputting a special character or a combination of actions in a single drag operation.

상술한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술분야의 숙련된 당업자라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although described with reference to the preferred embodiment of the present invention, those skilled in the art various modifications and variations of the present invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

도 1은 본 발명의 일 실시예에 따른 터치스크린 패널의 문자입력방법이 적용되는 터치스크린 패널의 단면도이다. 1 is a cross-sectional view of a touch screen panel to which a character input method of a touch screen panel according to an embodiment of the present invention is applied.

도 2 내지 도 9는 본 발명의 일 실시예에 따른 터치스크린 패널의 문자입력방법을 설명하기 위한 도면들이다. 2 to 9 are views for explaining a character input method of a touch screen panel according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100:터치스크린 패널 110:디스플레이100: Touch screen panel 110: Display

150:터치패널센서 210:터치 영역150: touch panel sensor 210: touch area

220:표시 영역 230:버튼 이미지220: display area 230: button image

240:가이드 영역240 : guide area

Claims (11)

문자 입력을 위한 버튼 이미지들을 표시하며, 터치 동작으로 상기 문자를 입력하는 터치스크린 패널의 문자입력방법에 있어서,In the character input method of the touch screen panel for displaying the button images for the character input, the character input by the touch operation, 드래그 동작의 최초 터치 지점 및 이동 방향에 따라서 미리 정의된 가이드 모션 및 각 상기 가이드 모션에 대응하는 추가 입력정보를 유지하는 단계;Maintaining a predefined guide motion and additional input information corresponding to each of the guide motions according to the initial touch point and the moving direction of the drag operation; 상기 터치스크린 패널에서 입력된 드래그 동작을 감지하는 단계;Detecting a drag operation input from the touch screen panel; 상기 정의된 가이드 모션 중 상기 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 선택하는 단계; 및 Selecting a guide motion substantially identical to the input drag motion among the defined guide motions; And 선택된 상기 가이드 모션에 대응하는 상기 추가 입력정보를 상기 터치스크린 패널에 표시하는 단계;Displaying the additional input information corresponding to the selected guide motion on the touch screen panel; 를 구비하는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.Character input method of the touch screen panel characterized in that it comprises a. 제1항에 있어서, The method of claim 1, 상기 입력된 드래그 동작과 실질적으로 일치하는 가이드 모션을 선택하는 단계는, Selecting a guide motion that substantially matches the input drag motion, 상기 가이드 모션을 감지하기 위한 가이드 영역을 상기 터치스크린 패널 상에 정의하고, Define a guide area for detecting the guide motion on the touch screen panel, 상기 입력된 드래그 동작이 상기 가이드 영역 내에서 수행되는지 판단하고, Determine whether the input drag operation is performed in the guide area, 상기 입력된 드래그 동작이 상기 가이드 영역에서 수행되는 경우 상기 입력 된 드래그 동작에 대응하는 가이드 모션을 선택하는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.And selecting a guide motion corresponding to the input drag operation when the input drag operation is performed in the guide area. 제1항에 있어서, The method of claim 1, 상기 가이드 모션은 직선 이동, 곡선 이동 혹은 직선/곡선 이동의 조합으로 이루어지는 것을 특징으로 하는 터치스크린 패널의 문자입력방법. The guide motion is a character input method of a touch screen panel, characterized in that made of a combination of linear movement, curve movement or linear / curve movement. 제3항에 있어서, The method of claim 3, wherein 가이드 모션은 서로 구분할 수 있는 범위 내에서, 상호 이격, 겹침, 평행, 교차, 분기 가능한 것을 특징으로 하는 터치스크린 패널의 문자입력방법. Guide motion is a character input method of the touch screen panel, characterized in that the mutually spaced, overlapping, parallel, intersecting, branching within a range that can be distinguished from each other. 제1항에 있어서, The method of claim 1, 가이드 모션은 상기 버튼 이미지의 경계를 따라서 제공되는 것을 특징으로 하는 터치스크린 패널의 문자입력방법. Guide motion is provided along the boundary of the button image character input method of the touch screen panel. 제1항에 있어서, The method of claim 1, 상기 가이드 모션은 최종 터치 지점, 드래그의 이동속도, 최종 터치 지점에서의 터치유지시간 중 적어도 하나를 더 포함하여 정의되는 것을 특징으로 하는 터치스크린 패널의 문자입력방법. The guide motion is a character input method of the touch screen panel, characterized in that it further comprises at least one of the last touch point, the moving speed of the drag, the touch holding time at the last touch point. 제6항에 있어서, The method of claim 6, 상기 가이드 모션이 최종 터치 지점에서 일정 시간 머무르는 경우에, 상기 가이드 모션에 대응하는 상기 추가 입력정보를 반복적으로 선택하는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.And when the guide motion stays at the last touch point for a predetermined time, repeatedly selecting the additional input information corresponding to the guide motion. 제2항에 있어서, The method of claim 2, 상기 가이드 영역 내에서 드래그 동작을 위한 최초 터치를 감지하는 단계; 및Detecting an initial touch for a dragging operation in the guide area; And 상기 가이드 영역 내에서의 상기 최초 터치 지점과 동일한 최초 터치 지점을 갖는 가이드 모션에 대응하는 추가 입력정보를 표시하는 단계를 더 포함하는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.And displaying additional input information corresponding to a guide motion having the same initial touch point as the first touch point in the guide area. 제1항에 있어서, The method of claim 1, 상기 추가 입력정보는 특정한 언어의 문자, 숫자, 기호, 그림, 문장부호, 액션, 성조(聲調), 발음변화 또는 그들의 조합을 제공하는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.The additional input information may include letters, numbers, symbols, pictures, punctuation, actions, tones, pronunciation changes, or combinations thereof in a specific language. 제1항에 있어서, The method of claim 1, 상기 가이드 모션을 가시화하기 위한 가이드 이미지를 상기 터치스크린 패널 상에 표시하는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.Character input method of the touch screen panel, characterized in that for displaying the guide image for visualizing the guide motion on the touch screen panel. 제1항에 있어서, The method of claim 1, 상기 가이드 모션에 대응하는 추가 입력정보는 사용자에 의해서 선택될 수 있는 것을 특징으로 하는 터치스크린 패널의 문자입력방법.Character input method of the touch screen panel, characterized in that the additional input information corresponding to the guide motion can be selected by the user.
KR1020090118080A 2009-12-01 2009-12-01 Method for inputting information of touch screen panal KR101162243B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090118080A KR101162243B1 (en) 2009-12-01 2009-12-01 Method for inputting information of touch screen panal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090118080A KR101162243B1 (en) 2009-12-01 2009-12-01 Method for inputting information of touch screen panal

Publications (2)

Publication Number Publication Date
KR20110061433A true KR20110061433A (en) 2011-06-09
KR101162243B1 KR101162243B1 (en) 2012-07-04

Family

ID=44395897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090118080A KR101162243B1 (en) 2009-12-01 2009-12-01 Method for inputting information of touch screen panal

Country Status (1)

Country Link
KR (1) KR101162243B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013005901A1 (en) * 2011-07-06 2013-01-10 Samsung Electronics Co., Ltd. Apparatus and method for inputting character on touch screen
US20140281932A1 (en) * 2013-03-15 2014-09-18 Google Inc. Document scale and position optimization
US20140281933A1 (en) * 2013-03-15 2014-09-18 Google Inc. Document scale and position optimization
WO2014209079A1 (en) * 2013-06-28 2014-12-31 고려대학교 산학협력단 Information processing device and method for providing text and characters

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013005901A1 (en) * 2011-07-06 2013-01-10 Samsung Electronics Co., Ltd. Apparatus and method for inputting character on touch screen
US20140281932A1 (en) * 2013-03-15 2014-09-18 Google Inc. Document scale and position optimization
US20140281933A1 (en) * 2013-03-15 2014-09-18 Google Inc. Document scale and position optimization
US9588675B2 (en) * 2013-03-15 2017-03-07 Google Inc. Document scale and position optimization
US9767076B2 (en) * 2013-03-15 2017-09-19 Google Inc. Document scale and position optimization
US20170371846A1 (en) 2013-03-15 2017-12-28 Google Inc. Document scale and position optimization
US10691326B2 (en) 2013-03-15 2020-06-23 Google Llc Document scale and position optimization
WO2014209079A1 (en) * 2013-06-28 2014-12-31 고려대학교 산학협력단 Information processing device and method for providing text and characters
KR101511132B1 (en) * 2013-06-28 2015-04-10 고려대학교 산학협력단 Device and method for information processing providing letter and character

Also Published As

Publication number Publication date
KR101162243B1 (en) 2012-07-04

Similar Documents

Publication Publication Date Title
KR101636705B1 (en) Method and apparatus for inputting letter in portable terminal having a touch screen
JP4518955B2 (en) User interface using moved representation of contact area
JP4863211B2 (en) Character data input device
KR101364814B1 (en) Adaptive virtual keyboard for handheld device
US9547430B2 (en) Provision of haptic feedback for localization and data input
US20150324060A1 (en) Touch screen overlay for mobile devices to facilitate accuracy and speed of data entry
JP4781957B2 (en) Mobile terminal device
EP2431853A2 (en) Character input device
US20120306767A1 (en) Method for editing an electronic image on a touch screen display
JP2017016679A (en) Multilingual key input device and method of the same
US20110025718A1 (en) Information input device and information input method
US20150130728A1 (en) Information processing device
KR101162243B1 (en) Method for inputting information of touch screen panal
JP5997921B2 (en) Character input method and character input device
US20090243897A1 (en) Method and apparatus for entering alphanumeric data via keypads or display screens
JP2013222366A (en) Operation input device
US20130215037A1 (en) Multi-touch surface keyboard with multi-key zones on an adaptable home line and method of inputting to same
US10747335B2 (en) Character and function recognition apparatus and method for dual function of input and output in character output area
KR20120081422A (en) Terminal having touch screen and method for inputting letter according to touch event thereof
KR20110048754A (en) Method for inputting information of touch screen panal
KR20230039741A (en) Adaptive touchscreen keypad with dead zone
KR101631069B1 (en) An integrated exclusive input platform supporting seamless input mode switching through multi-touch trackpad
JP6220374B2 (en) Information processing apparatus, output character code determination method, and program
JP2014140236A (en) Character data input device
KR102161174B1 (en) Apparatus and method for inputting of character possible of selected character input by pattern input part

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee