KR20020064063A - Method for carring out help word output button of intelligence communication terminal - Google Patents

Method for carring out help word output button of intelligence communication terminal Download PDF

Info

Publication number
KR20020064063A
KR20020064063A KR1020010004665A KR20010004665A KR20020064063A KR 20020064063 A KR20020064063 A KR 20020064063A KR 1020010004665 A KR1020010004665 A KR 1020010004665A KR 20010004665 A KR20010004665 A KR 20010004665A KR 20020064063 A KR20020064063 A KR 20020064063A
Authority
KR
South Korea
Prior art keywords
button
information
touch screen
help
click
Prior art date
Application number
KR1020010004665A
Other languages
Korean (ko)
Other versions
KR100764765B1 (en
Inventor
이지은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020010004665A priority Critical patent/KR100764765B1/en
Publication of KR20020064063A publication Critical patent/KR20020064063A/en
Application granted granted Critical
Publication of KR100764765B1 publication Critical patent/KR100764765B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: A method for embodying a help output button of an IT(Information Technology) terminal is provided to output an effect as clicking a right button of a mouse so as to output a help item. CONSTITUTION: In an IT terminal with a touch screen, it is checked whether a click event is generated from a button formed in a terminal or a touch screen. If a click event is generated, button information and click information are received and analyzed. As an analysis result, in the case that only click information of the touch screen is set, it is judged that an execution button(the left button of a mouse) is clicked. In the case that the button information and the click information are set, it is judged that a help output button(the right button of a mouse) is clicked. In the case that the help output button is clicked, a help menu with respect to a corresponding item of the touch screen is displayed. In the case that the execution button is clicked, a job with respect to a corresponding item is performed.

Description

정보통신 단말기의 도움말 출력버튼 구현방법{METHOD FOR CARRING OUT HELP WORD OUTPUT BUTTON OF INTELLIGENCE COMMUNICATION TERMINAL}How to Implement Help Output Button in Information and Communication Terminals {METHOD FOR CARRING OUT HELP WORD OUTPUT BUTTON OF INTELLIGENCE COMMUNICATION TERMINAL}

본 발명은 정보통신 단말기의 도움말 출력버튼 구현장치 및 방법에 관한 것으로, 특히 터치스크린 방식에 의해 명령을 입력받는 단말기에서 도움말 출력버튼을 구현하여 사용자의 편의성을 증진시킬 수 있도록 하는 정보통신 단말기의 도움말 출력버튼 구현방법에 관한 것이다.The present invention relates to an apparatus and method for implementing a help output button of an information communication terminal, and more particularly, to help a user of an information communication terminal by implementing a help output button in a terminal receiving a command by a touch screen method. The present invention relates to an output button implementation method.

최근, 정보통신 기술이 발전하면서 다양한 정보기기가 출시되고 있는데, 그러한 정보기기의 특성에 따라 데이터 입력장치도 다양화되고 있다.Recently, with the development of information and communication technology, various information devices have been released, and data input devices are also diversified according to the characteristics of such information devices.

예를 들어, 기존의 도스기반 피씨(PC)의 경우에는 문자 입력을 위한 키보드가 입력장치의 전부였으나, 점차 멀티미디어화 되면서 문자 이외에도 그림과 선 등을 보다 편리하게 입력할 수 있도록 하는 마우스, 타블릿 등을 이용하게 되었다.For example, in the case of the existing DOS-based PC (PC), the keyboard for inputting characters was all of the input devices, but the mouse, the tablet, etc., which allows users to enter pictures and lines more conveniently in addition to the characters as they are gradually multimediaized It was used.

또한, 피씨 위주였던 정보기기도 진화를 거듭하여 팜탑 또는 웹패드와 같이 기능상으로는 피씨에 못지않으나, 그 형태는 사용자의 편의를 고려하여 보다 단순화시킨 정보기기가 등장하였고, 그 정보기기의 특성에 따라 입력수단에도 많은 종류가 생겨나게 되었다.In addition, PC-oriented information devices have evolved and are no less functional than PCs, such as palmtops or web pads, but the form of information devices has been simplified in consideration of user convenience, and according to the characteristics of the information devices. There are many kinds of input methods.

상기와 같은 정보 단말기 중에서 특히 웹패드의 경우를 예로 들면, 터치 스크린을 통한 스타일러스 펜(Stylus pen), 마우스(Mouse), 온스크린 키보드(On Screen Keyboard) 등의 입력수단이 있다.Among the information terminals as described above, in particular, a web pad includes an input means such as a stylus pen, a mouse, an on-screen keyboard, and the like through a touch screen.

여기서, 웹패드란 도1에 도시된 바와 같이 주간 잡지 크기만한 액정화면에터치스크린 방식(펜 인식)으로 글자를 써서 이메일 송수신, 워드프로세서 작성, 전자책(e-book) 읽기 등 다양한 인터넷 어플리케이션을 지원하며 음악이나 비디오 스트림 기술이 적용되어 실시간으로 데이터를 다운로드할 수 있는 정보통신 단말기를 의미한다.Here, as shown in Fig. 1, the web pad is a touch screen method (pen recognition) on a liquid crystal screen, which is the size of a weekly magazine, and writes various Internet applications such as sending and receiving email, writing a word processor, and reading an e-book. It refers to an information and communication terminal that can download data in real time by applying music or video stream technology.

특히, CDMA2000-1X(IS95C)·IMT-2000 등 무선데이터통신 고속화가 계속 진행되면서 웹패드는 PDA(개인용휴대정보기기)와 더불어 '포스트 PC시대'의 주역으로 주목을 받고 있다.In particular, as the speed of wireless data communication such as CDMA2000-1X (IS95C) and IMT-2000 continues, webpads are attracting attention as the leading players in the 'post PC age' along with personal digital assistants (PDAs).

또한, 입력수단의 하나인 스타일러스(Stylus)는 텍스트를 작성하거나 선을 그리는데 사용되는 컴퓨터 입력장치로서, 처음에는 그래픽 분야의 워크스테이션에서 사용되던 것을 최근 애플사의 뉴턴이나 3Com의 팜파일럿과 같은 포켓용 컴퓨터들에서, 텍스트나 단순한 그림을 작성하기 위한 장치로서 제공되고 있다.In addition, one of the input means Stylus is a computer input device used to write or draw text, which was first used in workstations in the graphics field, such as Apple's Newton or 3Com's Palm Pilot. In computers, it is provided as an apparatus for creating text or simple pictures.

다시 말해, 오늘날 손으로 작성한 입력 내용을 받아들이는 대부분의 포켓용 컴퓨터들에서, 데이터 작성에 사용되는 도구를 스타일러스 또는 펜이라고 부르며 컴퓨터 스타일러스와 볼펜의 두 가지 역할을 수행하는 것을 의미하기도 한다.In other words, in most pocket computers that accept handwritten input today, the tool used to create the data is called a stylus or pen, which means that it plays two roles: a computer stylus and a ballpoint pen.

이러한 터치스크린 방식의 단말기인 웹패드상에서 임의의 동작을 수행하기 위해서는 터치스크린에 디스플레이된 특정 버튼을 스타일러스 펜을 이용해 누르면, 마우스의 왼쪽버튼(실행버튼)을 클릭한 것과 같은 효과가 나타난다.In order to perform an arbitrary operation on the touch pad type web pad, a specific button displayed on the touch screen is pressed using a stylus pen, and the same effect as clicking the left button (execution button) of the mouse is produced.

즉, 상기 작업을 마우스를 이용해 수행할 경우에는 마우스 포인터를 해당 버튼의 위로 이동시킨 후, 왼쪽 버튼을 클릭하면 해당 항목에 대한 작업이 수행되는 것이다.That is, when the operation is performed using a mouse, the mouse pointer is moved above the corresponding button, and the left button is clicked to perform the operation on the corresponding item.

참고로, 마우스의 왼쪽 버튼은 특정 동작을 수행시키기 위한 실행버튼의 역할을 하고, 오른쪽 버튼은 해당 항목에 대한 도움말을 출력시키기 위한 도움말 출력버튼의 역할을 한다.For reference, the left button of the mouse serves as an execution button for performing a specific operation, and the right button serves as a help output button for outputting a help for a corresponding item.

이와 같이, 종래 터치스크린 방식의 정보통신 단말기에서 사용되는, 입력장치(스타일러스 펜 등)는 특정 신호를 발생시키지 않고, 단순히 터치스크린을 클릭하는 용도로 사용되기 때문에, 터치스크린 방식의 단말기는 스타일러스 펜을 스크린에 디스플레이된 임의의 항목을 클릭하여 실행시키기 위한 실행버튼의 용도로 사용할 수 있을 뿐, 마우스의 오른쪽 버튼(도움말 출력버튼)의 역할을 수행시킬 수 있는 방법이 없어 사용에 불편한 문제점이 있었다.As such, since an input device (stylus pen, etc.) used in a conventional touch screen information communication terminal does not generate a specific signal and is simply used to click a touch screen, the touch screen terminal is a stylus pen. Can be used as the execution button for clicking and executing any item displayed on the screen, there is no inconvenience to use because there is no way to perform the role of the right button (help output button) of the mouse.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 창출한 것으로, 정보통신 단말기 상에 마우스 오른쪽 버튼을 클릭한 것과 같은 효과를 나타낼 수 있도록 하는 버튼을 형성하고, 그 버튼을 누른채로 터치 스크린의 임의의 항목을 클릭하면, 마우스의 오른쪽 버튼(도움말 출력버튼)을 클릭한 것으로 인식하여 도움말 항목이 출력되도록 함으로써, 사용자의 편의성을 증진시킬 수 있도록 하는 정보통신 단말기의 도움말 출력버튼 구현방법을 제공함에 그 목적이 있다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and forms a button on the information and communication terminal to have the same effect as clicking the right mouse button, and while pressing the button, the touch screen When any of the items is clicked, it recognizes that the right button (help output button) of the mouse is clicked so that the help item is output, thereby providing a method of implementing the help output button of the information communication terminal to enhance user convenience. Has its purpose.

도 1은 일반적인 웹패드의 형상을 설명하기 위해 보인 예시도.1 is an exemplary view shown to explain the shape of a general web pad.

도 2는 본 발명에 의한 도움말 출력버튼 구현방법을 설명하기 위해 보인 웹패드의 개략적인 구성도.Figure 2 is a schematic configuration diagram of a web pad shown to explain a method of implementing the help output button according to the present invention.

도 3은 본 발명에 의한 도움말 출력버튼 구현과정에 관한 보다 구체적인 설명을 위해 보인 순서도.Figure 3 is a flow chart shown for a more detailed description of the help output button implementation process according to the present invention.

이와 같은 목적을 달성하기 위한 본 발명은, 터치스크린 방식의 정보통신 단말기에 있어서, 단말기 본체에 형성되어 있는 버튼 또는 터치스크린으로부터 클릭 이벤트가 발생되는지 여부를 체크하는 제1단계와; 클릭 이벤트 발생시,버튼정보(M) 및 클릭정보(T)를 모두 입력받아 분석하는 제2단계와; 상기 분석 결과, 터치스크린의 클릭정보(T)만 세팅되어 있는 경우는 실행버튼(마우스의 왼쪽버튼)이 클릭된 것으로 판단하고, 버튼정보(M)와 클릭정보(T)가 모두 세팅되어 있는 경우는 도움말 출력버튼(마우스의 오른쪽버튼)이 클릭된 것으로 판단하는 제3단계와; 상기 판단에 의해 도움말 출력버튼이 클릭된 경우는 터치스크린의 해당 항목에 대한 도움말(또는 메뉴)을 디스플레이시키고, 실행버튼이 클릭된 경우는 해당 항목에 대한 작업이 수행되도록 하는 제4단계로 이루어진 것을 특징으로 한다.In order to achieve the above object, the present invention provides a touch screen information communication terminal comprising: a first step of checking whether a click event is generated from a button or a touch screen formed on a main body of a terminal; A second step of receiving and analyzing both the button information M and the click information T when the click event occurs; As a result of the analysis, when only the click information (T) of the touch screen is set, it is determined that the execution button (left button of the mouse) is clicked, and both the button information (M) and the click information (T) are set. A third step of determining that a help output button (right button of a mouse) is clicked; If the help output button is clicked according to the determination, a help (or menu) for the corresponding item of the touch screen is displayed, and if the execute button is clicked, the fourth step is performed. It features.

이하, 본 발명에 따른 일실시예를 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은, 정보통신 단말기 상에 마우스의 오른쪽 버튼을 클릭한 것과 같은 효과를 나타낼 수 있도록 하기 위한 버튼(이하, 이지 버튼으로 표기함)을 형성하고, 그 이지 버튼을 누른 상태에서 스타일러스 펜을 이용해 터치스크린의 임의의 항목을 누르면, 마우스의 오른쪽 버튼(도움말 출력버튼)을 클릭한 것으로 인식하여 도움말 항목(또는 메뉴)을 디스플레이한다.According to the present invention, a button (hereinafter referred to as an easy button) for forming the same effect as a right-click of a mouse is formed on an information communication terminal, and the stylus pen is pressed while the easy button is pressed. When any item on the touch screen is pressed, a right item (help output button) of the mouse is recognized as being clicked to display a help item (or a menu).

즉, 종래에는 터치스크린 방식에 의해 명령을 입력받는 단말기의 경우, 도움말 출력버튼(마우스의 오른쪽 버튼)을 구현할 수 없었기 때문에 사용이 불편했던 것을 본 발명에서는 단말기의 본체에 이지 버튼을 부가하고, 그 버튼이 눌린 상태에서 터치 스크린이 함께 눌리면, 터치 스크린의 해당 항목에 대해 도움말 출력버튼(마우스의 오른쪽 버튼)이 클릭된 것으로 인식하게 구현한 것이다.That is, in the present invention, in the case of a terminal receiving a command by a touch screen method, since the help output button (right button of a mouse) could not be implemented, it was inconvenient to use in the present invention. When the touch screen is pressed together while the button is pressed, the help output button (right button of the mouse) is clicked on the corresponding item of the touch screen.

그럼, 상기 본 발명에 의한 도움말 출력버튼 구현방법을 도2의 예시도를 참조하여 설명한다.Then, the method for implementing the help output button according to the present invention will be described with reference to the exemplary view of FIG. 2.

일단, 본 발명에 의한 단말기는 본체(Webpad)에 형성되어 있는 이지 버튼(100)이나, 터치스크린(TLCD)이 눌리면 그에 대한 이벤트가 발생하여 버튼정보(M) 또는 클릭정보(T)가 출력되고, 그 정보(M,T)를 분석하여 해당하는 동작이 수행되도록 구성된다.Once the terminal according to the present invention, the easy button 100 formed on the main body (Webpad), or when the touch screen (TLCD) is pressed, an event for it occurs and the button information (M) or click information (T) is outputted. It is configured to analyze the information (M, T) to perform a corresponding operation.

즉, 이지버튼(100)이 눌린 상태에서 스타일러스 펜을 이용해 터치스크린을 누르게 되면 그에 대한 클릭 이벤트가 발생하여, 이지버튼(100)에 대한 버튼정보(M) 및 클릭정보(T)가 프레임 버퍼(200)에 출력된다.That is, when the touch button is pressed using the stylus pen while the easy button 100 is pressed, a click event occurs, and the button information M and the click information T for the easy button 100 are frame buffers ( 200).

다음, 상기 버튼정보(M) 및 클릭정보(T)는 터치스크린 구동부(300)를 거쳐 제어부(400)에 인가되고, 제어부(400)는 그 값(M,T)을 분석하여 모두 '1'일 경우(버튼이 눌렸을 때 '1'을 출력하고, 눌리지 않았을 때 '0'을 출력할 경우), 도움말 항목(또는 메뉴)을 출력시키기 위한 제어명령을 터치스크린 구동부(300)에 출력한다.Next, the button information M and the click information T are applied to the control unit 400 via the touch screen driver 300, and the control unit 400 analyzes the values M and T to '1'. In this case (when the button is pressed, '1' is output and when it is not pressed, '0' is output), a control command for outputting a help item (or a menu) is output to the touch screen driver 300.

이에 따라, 상기 제어명령을 입력받은 터치스크린 구동부(300)는 프레임 버퍼(200)에 도움말 항목(또는 메뉴)을 로드(load)하여 스크린상의 클릭된 위치(스타일러스 펜에 의해 눌린 위치)에 그 도움말 항목을 디스플레이시킨다.Accordingly, the touch screen driver 300 receiving the control command loads a help item (or a menu) into the frame buffer 200 so that the help screen is pressed at the clicked position (the position pressed by the stylus pen) on the screen. Display the item.

도3은 본 발명의 동작에 관한 보다 구체적인 설명을 위하여 보인 순서도이다.Figure 3 is a flow chart shown for a more detailed description of the operation of the present invention.

이에 도시한 바와 같이, 이지버튼 또는 터치스크린으로부터 클릭 이벤트가 발생되는지 여부를 체크하여 클릭 이벤트가 발생되면, 이지버튼에 대한버튼정보(M) 및 클릭정보(T)를 입력받아 분석한다.As shown in the drawing, it is checked whether a click event is generated from the easy button or the touch screen, and when the click event is generated, the button information M and the click information T for the easy button are received and analyzed.

즉, 이지버튼 또는 터치스크린이 눌렸을 경우, 버튼정보 레지스터(M) 및 클릭정보 레지스터(T)는 '1'로 세팅되기 때문에, 상기 버튼정보(M) 및 클릭정보(T)가 '1'인지 여부를 분석하면 이지버튼이나 터치스크린이 눌렸는지 여부를 알 수 있게된다.That is, when the easy button or the touch screen is pressed, since the button information register M and the click information register T are set to '1', the button information M and the click information T are set to '1'. Analyzing whether or not it is possible to know whether the easy button or the touch screen is pressed.

이에 따라, 상기 두 정보(M,T)가 모두 '1'일 경우에는 이지버튼이 눌린 상태에서 터치스크린이 눌린 것을 의미하므로, 제어부는 도움말 출력버튼(마우스의 오른쪽 버튼)이 눌린 것으로 판단한다.Accordingly, when both information M and T are '1', the touch screen is pressed while the easy button is pressed. Therefore, the controller determines that the help output button (right button of the mouse) is pressed.

따라서, 제어부는 터치스크린의 해당 항목에 대한 도움말(또는 메뉴)을 로드하여 스크린에 디스플레이되도록 제어한다.Therefore, the controller loads the help (or menu) for the corresponding item of the touch screen and controls the display to be displayed on the screen.

물론, 상기와 같이 이지버튼을 형성시키지 않고도 터치스크린을 누른 횟수나 누르고 있는 시간 등에 의해 도움말 출력버튼을 구현할 수도 있으며, 이 때에는 상술한 방법에서 클릭정보 레지스터(M)의 세팅값을 다르게 설정하고, 그 값을 분석하여 도움말 출력버튼이 클릭된 것인지 아니면 실행버튼이 클릭된 것인지를 판단할 수 있도록 한다.Of course, the help output button may be implemented according to the number of times the touch screen is pressed or the time it is pressed without forming the easy button as described above. In this case, the setting value of the click information register M may be set differently in the above-described method. The value can be analyzed to determine whether the Help output button is clicked or the Run button is clicked.

이상에서 설명한 바와 같이 본 발명 정보통신 단말기의 도움말 출력버튼 구현방법은 정보통신 단말기 상에 마우스 오른쪽 버튼을 클릭한 것과 같은 효과를 나타낼 수 있도록 하는 버튼을 형성하고, 그 버튼을 누른채로 터치 스크린의 임의의 항목을 클릭하면, 마우스의 오른쪽 버튼(도움말 출력버튼)을 클릭한 것으로 인식하거나 또는 터치스크린을 클릭한 횟수나 누르고 있는 시간에 의해 마우스 오른쪽 버튼을 클릭한 것으로 인식하도록 하여 도움말 항목(메뉴)이 출력되도록 함으로써, 사용자의 편의성을 증진시킬 수 있도록 하는 효과가 있다.As described above, the method of implementing the help output button of the information communication terminal according to the present invention forms a button to have the same effect as the right-click of a mouse on the information communication terminal, and while the button is pressed, any of the touch screen If you click on the item of, the help item (menu) is recognized by clicking the right mouse button (help output button) or by clicking the touch screen or recognizing that the right mouse button is clicked by the number of clicks or holding time. By outputting, the user's convenience can be enhanced.

Claims (3)

터치스크린 방식의 정보통신 단말기에 있어서, 단말기 본체에 형성되어 있는 버튼 또는 터치스크린으로부터 클릭 이벤트가 발생되는지 여부를 체크하는 제1단계와; 클릭 이벤트 발생시, 버튼정보(M) 및 클릭정보(T)를 모두 입력받아 분석하는 제2단계와; 상기 분석 결과, 터치스크린의 클릭정보(T)만 세팅되어 있는 경우는 실행버튼(마우스의 왼쪽버튼)이 클릭된 것으로 판단하고, 버튼정보(M)와 클릭정보(T)가 모두 세팅되어 있는 경우는 도움말 출력버튼(마우스의 오른쪽버튼)이 클릭된 것으로 판단하는 제3단계와; 상기 판단에 의해 도움말 출력버튼이 클릭된 경우는 터치스크린의 해당 항목에 대한 도움말(또는 메뉴)을 디스플레이시키고, 실행버튼이 클릭된 경우는 해당 항목에 대한 작업이 수행되도록 하는 제4단계로 이루어진 것을 특징으로 하는 정보통신 단말기의 도움말 출력버튼 구현방법.A touch screen information communication terminal, comprising: a first step of checking whether a click event is generated from a button or a touch screen formed on a main body of a terminal; A second step of receiving and analyzing both the button information M and the click information T when the click event occurs; As a result of the analysis, when only the click information (T) of the touch screen is set, it is determined that the execution button (left button of the mouse) is clicked, and both the button information (M) and the click information (T) are set. A third step of determining that a help output button (right button of a mouse) is clicked; If the help output button is clicked according to the determination, a help (or menu) for the corresponding item of the touch screen is displayed, and if the execute button is clicked, the fourth step is performed. Help output button implementation method of the information communication terminal characterized in that. 제1항에 있어서, 상기 단말기에 형성된 버튼은 도움말 출력버튼 구현을 위한 전용 버튼을 새로 형성할 수 있으며, 기존 단말기에 부가되어 있는 임의의 기능키를 도움말 출력버튼으로 전용할 수도 있는 것을 특징으로 하는 정보통신 단말기의 도움말 출력버튼 구현방법.The method of claim 1, wherein the button formed in the terminal may be newly formed a dedicated button for implementing the help output button, and any function key added to the existing terminal may be dedicated to the help output button. Help output button implementation of the information communication terminal. 제1항에 있어서, 상기 버튼정보(M) 및 클릭정보(T)는 누른 횟수 또는 누르고 있는 시간에 대한 정보 등이 포함될 수 있는 것을 특징으로 하는 정보통신 단말기의 도움말 출력버튼 구현방법.The method of claim 1, wherein the button information (M) and the click information (T) may include information about the number of times of pressing or the time of the pressing.
KR1020010004665A 2001-01-31 2001-01-31 Method for carring out help word output button of intelligence communication terminal KR100764765B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010004665A KR100764765B1 (en) 2001-01-31 2001-01-31 Method for carring out help word output button of intelligence communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010004665A KR100764765B1 (en) 2001-01-31 2001-01-31 Method for carring out help word output button of intelligence communication terminal

Publications (2)

Publication Number Publication Date
KR20020064063A true KR20020064063A (en) 2002-08-07
KR100764765B1 KR100764765B1 (en) 2007-10-11

Family

ID=27692929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010004665A KR100764765B1 (en) 2001-01-31 2001-01-31 Method for carring out help word output button of intelligence communication terminal

Country Status (1)

Country Link
KR (1) KR100764765B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011079747A1 (en) * 2009-12-31 2011-07-07 华为终端有限公司 Point-touch input method and touch-screen mobile phone
US9400590B2 (en) 2012-12-03 2016-07-26 Samsung Electronics Co., Ltd. Method and electronic device for displaying a virtual button

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3727399B2 (en) * 1996-02-19 2005-12-14 ミサワホーム株式会社 Screen display type key input device
KR19990064777A (en) * 1999-05-08 1999-08-05 손성배 Manufacturing mouseless computer with touchscreen monitor and new lay-out of keyboard of notebook computer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011079747A1 (en) * 2009-12-31 2011-07-07 华为终端有限公司 Point-touch input method and touch-screen mobile phone
US9400590B2 (en) 2012-12-03 2016-07-26 Samsung Electronics Co., Ltd. Method and electronic device for displaying a virtual button

Also Published As

Publication number Publication date
KR100764765B1 (en) 2007-10-11

Similar Documents

Publication Publication Date Title
US9013438B2 (en) Touch input data handling
US8941600B2 (en) Apparatus for providing touch feedback for user input to a touch sensitive surface
US6335725B1 (en) Method of partitioning a touch screen for data input
US7002560B2 (en) Method of combining data entry of handwritten symbols with displayed character data
JP5097121B2 (en) Smart soft keyboard
US6515687B1 (en) Virtual joystick graphical user interface control with one and two dimensional operation
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
KR20090017517A (en) Multi-touch uses, gestures, and implementation
US20130027327A1 (en) Gesture recognition method and touch system incorporating the same
US20060267958A1 (en) Touch Input Programmatical Interfaces
US10339833B2 (en) Assistive reading interface
KR20080051459A (en) Method and apparatus of processing a scroll
US20140033110A1 (en) Accessing Secondary Functions on Soft Keyboards Using Gestures
US9645729B2 (en) Precise object selection in touch sensing systems
TWI709876B (en) Electronic device and switch method and system for inputting
KR100764765B1 (en) Method for carring out help word output button of intelligence communication terminal
US11003259B2 (en) Modifier key input on a soft keyboard using pen input
KR101844651B1 (en) Mouse input device and method of mobile terminal using 3d touch input type in mobile cloud computing client environments
CN107180039A (en) A kind of text information recognition methods and device based on picture
Haran Technologies and Requirements for Digital Pens
Fedor et al. Performance evaluation and efficiency of laser holographic peripherals
US11669200B2 (en) System for touch pad
KR100379917B1 (en) Mobile Terminal Equipped with Hot Key Input
KR19990080936A (en) Touch pad processing apparatus and method thereof in computer system, and touch pad module
KR20150060475A (en) Method and apparatus for controlling an input on a touch-screen

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee