KR20090013551A - Gesture perception - e book terminal and control method thereof - Google Patents

Gesture perception - e book terminal and control method thereof Download PDF

Info

Publication number
KR20090013551A
KR20090013551A KR1020070077792A KR20070077792A KR20090013551A KR 20090013551 A KR20090013551 A KR 20090013551A KR 1020070077792 A KR1020070077792 A KR 1020070077792A KR 20070077792 A KR20070077792 A KR 20070077792A KR 20090013551 A KR20090013551 A KR 20090013551A
Authority
KR
South Korea
Prior art keywords
gesture
coordinates
area
unit
recognition
Prior art date
Application number
KR1020070077792A
Other languages
Korean (ko)
Inventor
권오인
오지영
유태호
양중근
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020070077792A priority Critical patent/KR20090013551A/en
Publication of KR20090013551A publication Critical patent/KR20090013551A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A gesture recognition e-book terminal and a control method thereof are provided to execute corresponding command to the input unit by simply inputting a gesture and execute command including storing and copying by selecting a specific area in the input unit in reading E-book. A gesture recognition e-book terminal and a control method thereof comprise a memory unit, an input unit, a gesture recognition part, a controller and a processor. A memory unit(100) stores gestures and command corresponding to gestures. A gesture is input to an input unit(300) with screen contact. A gesture recognition part(500) recognizes the gesture inputted through the input unit. A controller(700) detects the command corresponding to the gesture acknowledged with the gesture recognition part from the memory unit. A processor(900) executes the command detected with the controller.

Description

제스쳐 인식 전자책 단말기 및 그 제어방법{Gesture Perception - e book Terminal and Control Method thereof}Gesture recognition e-book terminal and its control method {Gesture Perception-e book Terminal and Control Method

본 발명은 제스쳐 인식 전자책 단말기 및 그 제어방법에 관한 것으로서, 보다 상세하게, 사용자가 입력한 제스쳐를 인식하여 명령을 실행할 수 있는 제스쳐 인식 전자책 단말기 및 그 제어방법에 관한 것이다.The present invention relates to a gesture recognition e-book terminal and a control method thereof, and more particularly, to a gesture recognition e-book terminal and a control method thereof capable of recognizing a gesture input by a user and executing a command.

제스쳐 인식 장치는 태블릿(tablet) 컴퓨터에 이용되고 있다. 태블릿(tablet) 컴퓨터란, 평면판 위의 임의의 위치를 펜으로 접촉해 컴퓨터에 입력할 수 있도록 한 장치를 의미하는 것이다. 태블릿 컴퓨터에서는 테블릿펜의 접촉에 의해 사용자 입력이 이루어지는데, MAC OS X의 INKWELL 또는 Microsoft Windows XP Tablet PC에 수기 제스쳐 인식 기능이 장착되어 있다.Gesture recognition devices are used in tablet computers. A tablet computer refers to a device that allows a pen to touch an arbitrary position on a flat plate to be input to a computer. In tablet computers, user input is made by a tablet pen contact, and handwriting gesture recognition is installed in INKWELL or Microsoft Windows XP Tablet PC of MAC OS X.

한편, 근래에 휴대용 단말기의 기술이 발달하고, 현대인들에 의해 쉽게 이용됨에 따라 전자책(e-book) 이용자가 늘고 있다. PDA(Personal Digital Assistants)나 휴대 전화에 전자화된 문서나 책을 다운로드 받아 지하철 등 언제 어디서나 문 서를 읽거나 독서를 하는 문화가 확산되고 있다. 그러나, 기존의 전자책 단말의 경우, 글을 읽다가 중요한 부분이 나와 메모를 하기 위해서는 따로 종이 수첩 등을 이용해 수기로 입력하거나 기억에만 의존해야만 하는 한계점이 있어 왔다.On the other hand, in recent years, as the technology of the portable terminal is developed and easily used by modern people, the number of e-book users is increasing. The culture of reading and reading documents anywhere at any time, such as the subway, by downloading electronic documents or books on PDAs (Personal Digital Assistants) or mobile phones is spreading. However, in the case of the existing e-book terminal, there is a limit that must be inputted by hand using a paper notebook or relying only on the memory in order to make an important note while reading.

따라서, 본 발명의 목적은 스타일러스 등을 이용하여 직접 입력하는 제스쳐를 인식하고 인식된 제스쳐에 대응하는 명령을 실행할 수 있는 제스쳐 인식 전자책 단말기 및 그 제어방법을 제공하는 데 있다.Accordingly, an object of the present invention is to provide a gesture recognition e-book device capable of recognizing a gesture directly input using a stylus and the like and executing a command corresponding to the recognized gesture, and a control method thereof.

더 상세한 본 발명의 목적은, 제스쳐 및 상기 제스쳐별 대응 명령어를 저장하는 메모리부; 화면 접촉에 의해 상기 제스쳐를 입력받는 입력부; 상기 입력부를 통해 입력된 상기 제스쳐를 인식하는 제스쳐 인식부; 상기 제스쳐 인식부에 의해 인식된 제스쳐에 대응하는 명령어를 상기 메모리부에서 검출하는 제어부; 및 상기 제어부에 의해 검출된 상기 명령어를 실행하는 프로세서를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기를 제공하는 데 있다.A more detailed object of the present invention is a memory unit for storing a gesture and a corresponding instruction for each gesture; An input unit which receives the gesture by screen contact; A gesture recognition unit recognizing the gesture input through the input unit; A controller for detecting a command in the memory unit corresponding to the gesture recognized by the gesture recognition unit; And a processor for executing the command detected by the controller.

또한, 본 발명의 목적은 제스쳐 인식 전자책 단말기의 제어방법에 있어서, 제스쳐 및 상기 제스쳐별 대응 명령어를 저장하는 단계; 화면 접촉에 의해 제스쳐가 입력되는 단계; 상기 입력되는 제스쳐의 좌표를 검출하는 단계; 상기 검출된 좌표를 이용하여 메모리부에 저장된 제스쳐 중 하나로 인식하는 단계; 기 인식된 제스쳐에 대응하는 명령어를 검출하는 단계; 및 기 검출된 명령어를 실행하는 단계를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법을 제공하는 데 있다.Another object of the present invention is to provide a method of controlling a gesture recognition e-book device, the method comprising: storing a gesture and a corresponding command for each gesture; The gesture is input by the screen contact; Detecting coordinates of the input gesture; Recognizing one of the gestures stored in a memory unit using the detected coordinates; Detecting an instruction corresponding to a recognized gesture; And it provides a control method of a gesture recognition e-book terminal comprising the step of executing the detected command.

상기 목적은, 본 발명에 따라, 제스쳐 인식 전자책 단말기에 있어서, 제스쳐 및 상기 제스쳐별 대응 명령어를 저장하는 메모리부; 화면 접촉에 의해 상기 제스쳐를 입력받는 입력부; 상기 입력부를 통해 입력된 상기 제스쳐를 인식하는 제스쳐 인식부; 상기 제스쳐 인식부에 의해 인식된 제스쳐에 대응하는 명령어를 상기 메모리부에서 검출하는 제어부; 및 상기 제어부에 의해 검출된 상기 명령어를 실행하는 프로세서를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기를 제공하는 데 있다.According to an aspect of the present invention, there is provided a gesture recognition electronic book terminal, comprising: a memory unit for storing a gesture and a corresponding instruction for each gesture; An input unit which receives the gesture by screen contact; A gesture recognition unit recognizing the gesture input through the input unit; A controller for detecting a command in the memory unit corresponding to the gesture recognized by the gesture recognition unit; And a processor for executing the command detected by the controller.

또한, 상기 제스쳐는 원, 삼각형, 사각형, 및 체크(V)를 포함하는 것을 특징으로 할 수 있다.In addition, the gesture may include a circle, a triangle, a rectangle, and a check (V).

게다가, 상기 제스쳐별 대응하는 명령어는 생산공정에서 미리 지정되고, 사용자의 선택에 의해 변경되는 것을 특징으로 할 수 있다.In addition, the corresponding command for each gesture may be pre-specified in the production process and changed by a user's selection.

한편, 상기 제스쳐 인식부는, 상기 입력부를 통해 입력된 상기 제스쳐의 좌표를 이용하여 상기 메모리부에 저장된 제스쳐 중 하나를 인식하는 것을 특징으로 할 수 있다.The gesture recognizing unit may recognize one of the gestures stored in the memory unit by using the coordinates of the gesture input through the input unit.

한편, 상기 목적은, 본 발명에 따라, 제스쳐 인식 전자책 단말기의 제스쳐 인식부에 있어서, 입력부를 통해 입력받는 제스쳐의 좌표를 검출하고, 상기 검출된 좌표를 이용하여 메모리부에 저장된 제스쳐 중 하나로 인식하는 것을 특징으로 하는 제스쳐 인식부를 제공하는 데 있다.On the other hand, according to the present invention, the gesture recognition unit of the gesture recognition e-book terminal, according to the present invention, detects the coordinates of the gesture received through the input unit, and recognizes one of the gestures stored in the memory unit using the detected coordinates It is to provide a gesture recognition unit characterized in that.

또한, 상기 목적은, 본 발명에 따라, 제스쳐 인식 전자책 단말기에 있어서, 접촉에 의해 화면의 특정 영역을 선택받는 입력부; 상기 입력부를 통해 선택된 영역을 인식하는 영역 인식부; 상기 영역 인식부에 의해 인식된 영역에 포함되는 텍스트를 검출하는 제어부; 및 상기 제어부에 의해 검출된 상기 텍스트를 실행하는 프로세서를 포함하는 것을 특징으로 할 수 있다.In addition, the above object is, according to the present invention, a gesture recognition e-book terminal, the input unit for selecting a specific area of the screen by contact; An area recognition unit recognizing an area selected through the input unit; A controller detecting text included in an area recognized by the area recognizer; And a processor that executes the text detected by the controller.

또한, 상기 영역 인식부는, 상기 입력부를 통해 선택된 영역의 좌표를 검출하고, 상기 검출된 좌표들 중 X 및 Y좌표의 최대값 및 최소값을 이용하여 상기 선택 영역을 인식하는 것을 특징으로 할 수 있다.The area recognizing unit may detect coordinates of the area selected through the input unit and recognize the selection area by using maximum and minimum values of X and Y coordinates among the detected coordinates.

게다가, 상기 제어부는, 상기 영역 인식부에 의해 인식된 상기 선택 영역의 좌표 및 텍스트가 위치한 좌표를 비교하여, 상기 인식 영역에 일부분 이상 포함되는 텍스트를 검출하는 것을 특징으로 할 수 있다.In addition, the controller may compare the coordinates of the selection area recognized by the area recognition unit with the coordinates where the text is located, and detect text included in at least a portion of the recognition area.

한편, 상기 목적은, 본 발명에 따라, 제스쳐 인식 전자책 단말기의 영역 인식부에 있어서, 입력부를 통해 선택받는 영역의 좌표를 검출하고, 상기 검출된 좌표를 이용하여 상기 검출된 좌표들 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 상기 선택 영역을 인식하는 것을 특징으로 하는 영역 인식부를 제공하는 데 있다.On the other hand, the object is, according to the present invention, in the area recognition unit of the gesture recognition e-book terminal, detecting the coordinates of the area selected through the input unit, by using the detected coordinates X and An area recognizing unit is provided that recognizes the selected area by using a maximum value and a minimum value of a Y coordinate.

또한, 상기 프로세서는, 상기 텍스트의 복사, 붙이기, 오려두기를 포함하는 텍스트 편집 및 텍스트 저장을 포함하는 실행을 하는 것을 특징으로 할 수 있다.In addition, the processor may be characterized in that the execution, including text editing and text storage including copying, pasting, and cutting of the text.

또 한편, 상기 목적은, 본 발명에 따라, 제스쳐 인식 전자책 단말기의 제어 방법에 있어서, 제스쳐 및 상기 제스쳐별 대응 명령어를 저장하는 단계; 화면 접촉에 의해 제스쳐가 입력되는 단계; 상기 입력되는 제스쳐의 좌표를 검출하는 단계;On the other hand, according to the present invention, a control method of a gesture recognition e-book terminal, the method comprising: storing a gesture and a corresponding command for each gesture; The gesture is input by the screen contact; Detecting coordinates of the input gesture;

상기 검출된 좌표를 이용하여 메모리부에 저장된 제스쳐 중 하나로 인식하는 단계; 상기 인식된 제스쳐에 대응하는 명령어를 검출하는 단계; 및 상기 검출된 명령어를 실행하는 단계를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법을 제공하는 데 있다.Recognizing one of the gestures stored in a memory unit using the detected coordinates; Detecting an instruction corresponding to the recognized gesture; And it provides a control method of a gesture recognition e-book terminal comprising the step of executing the detected command.

또한, 사용자에 의해 상기 제스쳐별 대응 명령어가 변경되는 단계를 더 포함하는 것을 특징으로 할 수 있다.The method may further include changing a corresponding command for each gesture by a user.

또 다른 한편, 상기 목적은, 본 발명에 따라, 제스쳐 인식 전자책 단말기의 제어방법에 있어서, 접촉에 의해 화면의 특정 영역이 선택되는 단계; 상기 선택된 영역의 좌표를 검출하는 단계; 상기 검출된 좌표들 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 상기 선택 영역을 인식하는 단계; 상기 인식 영역 및 텍스트가 위치한 좌표를 비교하는 단계; 비교 결과, 상기 인식 영역에 일부분 이상 포함되는 텍스트를 검출하는 단계; 및 상기 검출된 텍스트를 실행하는 단계를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법을 제공하는 데 있다.On the other hand, the object is, according to the present invention, a method for controlling a gesture recognition e-book terminal, comprising the steps of selecting a specific area of the screen by the touch; Detecting coordinates of the selected area; Recognizing the selection area by using maximum and minimum values of X and Y coordinates among the detected coordinates; Comparing coordinates in which the recognition area and text are located; Detecting text included in at least a portion of the recognition area as a result of the comparison; And it provides a control method of a gesture recognition e-book terminal comprising the step of executing the detected text.

또한, 상기 텍스트 실행은, 상기 텍스트의 복사, 붙이기, 오려두기를 포함하는 텍스트 편집 및 텍스트 저장을 포함하는 것을 특징으로 할 수도 있다.The text execution may also include text editing and text storage including copying, pasting, and cutting the text.

이상 설명한 바와 같이, 본 발명에 따르면, 입력부에 간단히 제스쳐를 입력 하는 방식으로 제스쳐에 해당 명령어를 실행할 수 있는 제스쳐 인식 전자책 단말기 및 그 제어방법을 제공할 수 있다.As described above, according to the present invention, it is possible to provide a gesture recognition e-book terminal and a control method thereof capable of executing a corresponding command on a gesture by simply inputting a gesture to an input unit.

또한, 본 발명에 따르면, 입력부에 특정 영역을 선택하는 방식으로 전자책을 보던 도중 저장하기, 복사하기 등의 명령어를 실행할 수 있다.In addition, according to the present invention, a command such as saving, copying, etc. while executing an e-book while selecting a specific region in the input unit can be executed.

이하, 첨부도면을 참조하여 본 발명의 실시예에 대해 구체적으로 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명의 일실시예에 따른, 제스쳐 인식 전자책 단말기에 대한 블럭도이다.1 is a block diagram of a gesture recognition e-book terminal according to an embodiment of the present invention.

도1을 참조하면, 본 발명의 일실시예에 따른 제스쳐 인식 전자책 단말기는, Referring to Figure 1, the gesture recognition e-book device according to an embodiment of the present invention,

메모리부(100), 입력부(30), 제스쳐 인식부(500), 제어부(700), 및 프로세서(900)를 포함한다.The memory unit 100 includes an input unit 30, a gesture recognition unit 500, a control unit 700, and a processor 900.

메모리부(100)는 제스쳐 및 제스쳐에 대응하는 명령어를 저장하는 것으로, CF(Compact Flash) 메모리, SD(Secure Digital) 메모리, 및 MMC(Muliti Media Card) 등 소형 단말기에 장착될 수 있는 각종 메모리들로 구현될 수 있다.The memory unit 100 stores a gesture and a command corresponding to the gesture, and may be various memories that may be mounted in a small terminal such as a Compact Flash (CF) memory, a Secure Digital (SD) memory, and a MMC (Muliti Media Card). It can be implemented as.

메모리부(100)는 원, 삼각형, 사각형, 체크(V) 등의 제스쳐와 이들 제스쳐와 대응하는 명령어를 저장한다. 여기서, 제스쳐란 전술한 각종 도형 및 상징적인 그림 또는 선 등을 의미하는 것으로, 후술할 제스쳐 인식부(500)가 쉽게 인식할 수 있는 어떤 형태라도 무방하다. 또한, 제스쳐에 대응하는 명령어란, 예컨대 체크(V) 에 대응하는 명령어가 '저장 하기' 기능에 해당된다면, 메모리부(100)에 체크(V) 및 체크(V)에 대응하는 명령어인 '저장 하기' 명령어를 저장한다.The memory unit 100 stores gestures such as circles, triangles, rectangles, and checks (V) and instructions corresponding to the gestures. Here, the gesture refers to the aforementioned various figures and symbolic pictures or lines, and may be in any form that can be easily recognized by the gesture recognition unit 500 to be described later. In addition, the command corresponding to the gesture is, for example, if the command corresponding to the check (V) corresponds to the function of 'storing,' the storage corresponding to the check (V) and the check (V) in the memory unit 100 is stored. Save the 'next command.

입력부(300)는 사용자에 의해 제스쳐를 입력받는 곳으로, 사용자의 접촉에 의해 그 접촉이 일어난 부분을 인지하여 명령을 실행하거나 커서의 위치를 이동하도록 설계된 터치 스크린 등을 포함하는 터치 패널로 구현될 수 있다. 제스쳐를 입력하기 위하여 스타일러스(stylus) 등의 포인팅 디바이스(pointing device)를 이용하여 입력부(300)에 접촉하는 방식을 취한다. 여기서, 스타일러스(stylus)는 텍스트를 작성하거나 선을 그리는 데 사용되는 컴퓨터 입력장치이고, 포인팅 디바이스는 스타일러스 등의 컴퓨터 입력장치에 대한 일반적인 명칭을 의미한다. 바람직하게, 입력부(300)는 특정 포인팅 디바이스 외에도 사용자의 손가락 등의 접촉에 의해서도 제스쳐를 입력받을 수 있다.The input unit 300 may be a touch panel including a touch screen designed to execute a command or move a position of a cursor by recognizing a part where a contact is made by a user's contact. Can be. In order to input the gesture, the input unit 300 is contacted using a pointing device such as a stylus. Here, the stylus is a computer input device used to create text or draw lines, and the pointing device means a general name for a computer input device such as a stylus. Preferably, the input unit 300 may receive a gesture by a user's finger or the like, in addition to a specific pointing device.

제스쳐 인식부(500)는 입력부(300)를 통해 입력되는 제스쳐를 인식하는 것이다. 즉, 입력부(300)를 통해 제스쳐가 입력되면, 제스쳐 인식부(500)는 입력된 제스쳐에 대한 좌표를 검출한다. 그 후, 검출된 좌표를 이용하여 메모리부(100)에 저장되어 있는 제스쳐 중 하나의 제스쳐로 인식한다.The gesture recognition unit 500 recognizes a gesture input through the input unit 300. That is, when a gesture is input through the input unit 300, the gesture recognizer 500 detects coordinates of the input gesture. Thereafter, the detected coordinate is recognized as one of the gestures stored in the memory unit 100.

더 상세히 설명하면, 사용자가 스타일러스 등을 사용하여 입력부(300)에 다소 일그러진 원 모양을 그린 경우, 제스쳐 인식부(500)는 이 원 모양의 좌표를 검출하여 검출된 좌표와 가장 유사한 제스쳐 모양을 인식한다. 좌표의 검출 및 제스쳐 인식에 대해서는 도2를 참조하여 후술한다.In more detail, when the user draws a slightly distorted circle shape on the input unit 300 using a stylus or the like, the gesture recognizer 500 detects the circle shape coordinate and recognizes the gesture shape most similar to the detected coordinates. do. Coordinate detection and gesture recognition will be described later with reference to FIG. 2.

제어부(700)는 제스쳐 인식부(500)가 인식한 제스쳐에 대응하는 명령어를 검 출하는 것으로, MCU(Micro Controller Unit), 마이컴(Micom) 등으로 구현가능하다.The controller 700 detects a command corresponding to the gesture recognized by the gesture recognition unit 500, and may be implemented as a micro controller unit (MCU), a microcomputer (Micom), or the like.

예컨대, 사용자가 입력부(100)를 통해 입력한 제스쳐가 제스쳐 인식부(500)에 의해 원 모양으로 인식된 경우, 제어부(700)는 원 모양에 대응하는 명령어를 메모리부(100)에서 검출한다. 즉, 원 모양에 대응하는 명령어가 '저장 하기'라면, 제어부(700)는 메모리부(100)에서 '저장 하기' 명령어를 검출하는 것이다.For example, when a gesture input by the user through the input unit 100 is recognized by the gesture recognition unit 500 in a circle shape, the controller 700 detects a command corresponding to the circle shape in the memory unit 100. That is, if the command corresponding to the circle shape is 'save', the control unit 700 detects the 'save' command in the memory unit 100.

프로세서(900)는 검출된 명령어를 실행하는 중앙 처리 장치이다.The processor 900 is a central processing unit that executes the detected instructions.

입력부(100)를 통해 입력된 제스쳐가 전술한 과정을 거쳐 제어부(700)에 의해 '저장하기' 명령어가 검출된 경우, 프로세서(900)가 '저장 하기' 명령어를 실행한다. 바람직하게, 프로세서(900)가 실행한 결과가 화면에 디스플레이될 수도 있다(미도시).When the gesture input through the input unit 100 detects the 'save' command by the controller 700 through the above-described process, the processor 900 executes the 'save' command. Preferably, the execution result of the processor 900 may be displayed on the screen (not shown).

도2는 본 발명의 일실시예에 따른, 제스쳐 인식 전자책 단말기에 제스쳐 입력 및 인식되는 것에 대한 설명도이다.2 is an explanatory diagram for inputting and recognizing a gesture in a gesture recognition e-book device according to an exemplary embodiment of the present invention.

도2에 도시된 바와 같이, 사용자가 전자책을 보던 중 스타일러스 등을 이용하여 제스쳐 인식 전자책 단말기의 입력부(300)에 특정 제스쳐를 입력한다. 예컨대, 사용자가 제스쳐 인식 전자책 단말기를 통해 전자책을 보던 중 입력부(300)에 특정 제스쳐를 입력 한 경우, 제스쳐 인식부(500)에서는 먼저 입력된 특정 제스쳐가 커버(cover)하는 좌표를 검출한다. 그 후, 검출된 좌표를 이용하여 제스쳐 인식부(500)가 특정 제스쳐가 메모리부(100)에 저장되어 있는 제스쳐 중 하나로 인식한다.As shown in FIG. 2, a user inputs a specific gesture to the input unit 300 of the gesture recognition e-book terminal using a stylus or the like while viewing the e-book. For example, when a user inputs a specific gesture to the input unit 300 while viewing an e-book through a gesture recognition e-book terminal, the gesture recognizer 500 detects coordinates covered by the first inputted gesture. . Thereafter, the gesture recognition unit 500 recognizes the specific gesture as one of the gestures stored in the memory unit 100 using the detected coordinates.

더 상세히 설명하면, 사용자가 스타일러스 등을 이용하여 입력부(300)에 도2 에 도시되어 있는 표시를 한 경우, 제스쳐 인식부(500)는 이 표시가 커버하고 있는 좌표를 검출한다. 여기서, 검출되는 좌표는 "(0.80, 4.37), (0.85, 4.15), (0.90, 3.98),..."과 같은 방식으로, X축 방향으로 일정거리(여기서는 0.05 cm) 마다 표시된 좌표를 검출한다. 그 후, 제스쳐 인식부(500)는 검출된 좌표의 특징을 분석하여 메모리부(100)에 저장되어 있는 제스쳐 중에 가장 유사한 체크(V) 모양으로 인식한다. 제어부(700)가 제스쳐 인식부(500)에 의해 인식된 체크(V) 모양의 제스쳐에 대응하는 명령어를 메모리부(100)에서 검출하고, 프로세서(900)는 체크(V) 제스쳐에 대응하는 명령어를 실행한다. 여기서, 체크(V) 제스쳐에 대응하는 명령어가 '사전 찾기'라면, 결국 프로세서(900)는 표시된 단어 또는 어구에 해당하는 뜻을 검색한다. 바람직하게, 검색된 단어 등의 뜻이 화면에 디스플레이될 수도 있다. 여기서, 설명하지느 않았으나, '사전 찾기' 기능을 수행하기 위해서는 메모리부(100)에 사전을 수록해야 한다는 것이 자명하다.In more detail, when the user makes a display illustrated in FIG. 2 on the input unit 300 using a stylus or the like, the gesture recognizing unit 500 detects the coordinates covered by the display. Here, the detected coordinates are detected in the same manner as "(0.80, 4.37), (0.85, 4.15), (0.90, 3.98), ..." for every predetermined distance (0.05 cm) in the X-axis direction. do. Thereafter, the gesture recognizing unit 500 analyzes the characteristic of the detected coordinates and recognizes the most similar check (V) shape among the gestures stored in the memory unit 100. The control unit 700 detects a command corresponding to the check (V) shape gesture recognized by the gesture recognition unit 500 in the memory unit 100, and the processor 900 performs a command corresponding to the check (V) gesture. Run Here, if the instruction corresponding to the check (V) gesture is 'pre-search', the processor 900 eventually searches for a meaning corresponding to the displayed word or phrase. Preferably, the meaning of the searched word or the like may be displayed on the screen. Although not described here, it is obvious that the dictionary should be stored in the memory unit 100 in order to perform the 'find search' function.

도3은 본 발명의 다른 실시예에 따른, 제스쳐 인식 전자책 단말기에 대한 블럭도이다.3 is a block diagram of a gesture recognition e-book terminal according to another embodiment of the present invention.

도3을 참조하면, 본 발명의 다른 실시예에 따른 제스쳐 인식 전자책 단말기는 입력부(200), 영역 인식부(400), 제어부(600) 및 프로세서(800)를 포함한다.Referring to FIG. 3, the gesture recognition e-book device according to another embodiment of the present invention includes an input unit 200, an area recognition unit 400, a controller 600, and a processor 800.

입력부(200)는 도1을 참조하여 전술한 입력부(100)와 동일한 구성요소이다. 다만, 여기에서는 스타일러스 등의 화면 접촉에 의해 특정 영역을 선택받는 역할을 하는 것이 입력부(100)과 차이점이다.The input unit 200 is the same component as the input unit 100 described above with reference to FIG. 1. However, in this case, it is different from the input unit 100 in that a specific region is selected by screen contact such as a stylus.

영역 인식부(400)는 입력부(200)를 통해 선택된 특정 영역을 인식하는 것이 다. 즉, 사용자가 스타일러스 등으로 입력부(200) 화면의 글의 특정 부분이 기록된 영역을 선택하는 경우, 영역 인식부(400)는 먼저, 선택된 영역에 대한 좌표를 검출한다. 그 후, 검출된 좌표를 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 선택된 영역을 인식한다.The area recognizer 400 recognizes a specific area selected through the input unit 200. That is, when the user selects an area in which a specific portion of the text on the screen of the input unit 200 is recorded by using a stylus or the like, the area recognition unit 400 first detects coordinates of the selected area. Thereafter, the detected coordinates are recognized using the maximum and minimum values of the X and Y coordinates.

제어부(600)는 영역 인식부(400)에 의해 인식된 좌표를 이용하여, 인식된 선택 영역의 좌표에 포함된 텍스트를 검출하는 것으로, MCU(Micro Controller Unit), 마이컴(Micom) 등으로 구현가능하다.The controller 600 detects text included in the coordinates of the recognized selection area by using the coordinates recognized by the area recognition unit 400, and may be implemented as a micro controller unit (MCU), a micom, or the like. Do.

즉, 사용자가 스타일러스 등을 사용하여 입력부(200)에 수록된 책의 특정 부분이 기록된 영역을 선택한 경우, 영역 인식부(400)는 이 선택된 영역의 좌표를 검출한다. 그 후, 검출된 선택 영역의 좌표들 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 포괄적으로 선택된 영역을 인식할 수도 있다. 영역 인식부(400) 및 제어부에 대해서는 도4를 참조하여 더 상세히 설명하기로 한다.That is, when the user selects an area in which a specific part of the book recorded in the input unit 200 is recorded by using a stylus or the like, the area recognition unit 400 detects coordinates of the selected area. Thereafter, the comprehensively selected area may be recognized using the maximum and minimum values of the X and Y coordinates among the coordinates of the detected selection area. The area recognizer 400 and the controller will be described in more detail with reference to FIG. 4.

도4는 본 발명의 다른 실시예에 따른, 제스쳐 인식 전자책 단말기에 특정 영역이 선택, 인식, 및 그를 이용하여 텍스트를 검출하는 것에 대한 설명도이다.4 is an explanatory diagram for selecting, recognizing, and detecting text using a specific region in a gesture recognition e-book terminal according to another embodiment of the present invention.

도4에 도시된 바와 같이, 사용자가 입력부(200)를 통해 특정 영역을 선택한다. 예컨대, 사용자가 제스쳐 인식 전자책 단말기를 이용하여 단말기 사용법에 관한 전자책을 읽던 중 현재 페이지의 특정 부분을 별도로 저장하기 위해 입력부(200) 화면에 특정 영역을 타원형으로 선택 한 경우, 영역 인식부(400)에서는 선택된 타원형이 커버(cover)하는 좌표를 검출한다. 그 후, 영역 인식부(400)는 검출된 좌표들 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 선택된 특정 영역을 인 식한다.As shown in FIG. 4, a user selects a specific area through the input unit 200. For example, when a user reads an e-book on a terminal using a gesture recognition e-book device, and selects a specific area as an ellipse on the screen of the input unit 200 to separately store a specific part of the current page, the area recognition unit ( In 400, the coordinates that the selected ellipse covers are detected. Thereafter, the area recognizer 400 recognizes the selected specific area by using the maximum and minimum values of the X and Y coordinates among the detected coordinates.

더 상세히 설명하면, 사용자가 전자책을 보던 도중 입력부(200) 화면에 도4에 도시된 바와 같은 타원형의 영역을 선택 한 경우, 영역 인식부(400)는 이 선택된 영역이 커버하고 있는 좌표를 검출하다. 여기서, 검출된 영역의 좌표는 "(0.34, 3.78), (0.35, 3.81, 3.75), (0.40, 3.92, 3.64), (0.45, 4.01, 3.52),..."와 같은 방식으로, 이 영역이 시작하는 좌표 및 X 축 방향으로 일정거리(여기서도 0.05 cm, 단 첫 검출되는 좌표는 X 좌표가 5로 나누어지는 좌표 중 가장 가까운 좌표) 마다 선택된 영역에 해당하는 좌표를 검출한다. 여기서 두번째 좌표부터는 (X 좌표, Y좌표 최대값, Y좌표 최소값)의 형식으로 검출된다. 이러한 방식으로 검출된 좌표에 의해, 영역 인식부(400)는 검출된 좌표의 X 및 Y 좌표의 최대값 및 최소값 만을 이용하여 포괄적인 좌표를 인식할 수 있으며, 바람직하게, 영역 인식부(400)는 검출된 각 좌표를 개별적으로 인식할 수도 있다.In more detail, when the user selects an elliptical region as shown in FIG. 4 on the screen of the input unit 200 while viewing the e-book, the region recognizer 400 detects the coordinates covered by the selected region. Do. Here, the coordinates of the detected area are defined in this manner as "(0.34, 3.78), (0.35, 3.81, 3.75), (0.40, 3.92, 3.64), (0.45, 4.01, 3.52), ...". Coordinates corresponding to the selected area are detected for each of the starting coordinates and a predetermined distance in the X-axis direction (here, 0.05 cm, but the first detected coordinates are the closest coordinates among the coordinates of which the X coordinate is divided by five). Here, the second coordinate is detected in the form of (X coordinate, Y coordinate maximum value, Y coordinate minimum value). By the coordinates detected in this manner, the area recognition unit 400 may recognize the comprehensive coordinates using only the maximum and minimum values of the X and Y coordinates of the detected coordinates. May individually recognize each detected coordinate.

제어부(600) 이러한 방식으로 영역 인식부(400)에 의해 인식된 좌표들을 이용들 및 텍스트가 위치한 좌표를 비교하여, 이 좌표들에 일부분 이상 포함된 텍스트를 검출한다. 여기서, 인식된 좌표에 일부분 이상 포함된다는 것은 도4의 선택된 영역에 의해 잘려진 텍스트까지 포함하는 것을 의미한다. 바람직하게, 텍스트가 포함될지 여부에 대한 기준이 되는 비율은 사용자에 의해 조정될 수도 있다(미도시). 이에 따라, 사용자가 스타일러스 등을 사용하여 선택하고 싶은 영역을 대충 그리더라도, 영역 인식부(400) 및 제어부(600)에 의해 사용자가 원하는 영역이 포함된 텍스트를 검출할 수 있다.In this way, the controller 600 compares the coordinates recognized by the area recognition unit 400 with the coordinates where the text is located and detects text included in at least a portion of the coordinates. Here, the inclusion of at least a portion of the recognized coordinates means including text cut by the selected region of FIG. 4. Preferably, the ratio as a reference for whether or not text is included may be adjusted by the user (not shown). Accordingly, even if the user roughly draws an area to be selected using a stylus or the like, the area recognition unit 400 and the control unit 600 may detect text including the area desired by the user.

프로세서(800) 검출된 텍스트를 실행하는 중앙 처리 장치이다. 여기서, 텍스트 실행은 텍스트 보사, 붙이기, 오려두기 등을 포함하는 텍스트 편집 및 텍스트 저장을 포함할 수 있다. 예컨대, 프로세서(800)가 실행하는 텍스트 실행이 '저장하기'라면, 사용자가 입력부(200)에 타원형으로 선택하는 "2. 화면, 3. 소리"가 자동으로 저장될 수 있다("2. 화면"의 경우에는 잘려진 비율이 적으므로, 경우에 따라서는 제외될 수도 있다). 바람직하게, 프로세서가 텍스트를 실행하는 방식을 사용자가 선택·변경 할 수도 있다.The processor 800 is a central processing unit that executes the detected text. Here, the text execution may include text editing and text storage including text compliancy, pasting, cutting, and the like. For example, if the text execution executed by the processor 800 is 'save', "2. screen, 3. sound" that the user selects to oval in the input unit 200 may be automatically stored ("2. Screen"). ", The truncation rate is small, and may be excluded in some cases). Preferably, the user may select and change the manner in which the processor executes text.

도5는 본 발명의 일실시예에 따른 제스쳐 인식 전자책 단말기에 대한 순서도이다.5 is a flowchart illustrating a gesture recognition e-book device according to an embodiment of the present invention.

이하, 도5를 참조하여 본 발명의 일 실시예에 따른 동작 순서를 구체적으로 설명한다.Hereinafter, an operation sequence according to an embodiment of the present invention will be described in detail with reference to FIG. 5.

생산공정에서 제스쳐 및 제스쳐별 대응하는 명령어를 저장된다(S01).In the production process, the gesture and the corresponding instruction for each gesture are stored (S01).

사용자가, 제스쳐별 대응 명령어를 변경하는 경우(S102), 제스쳐별 대응 명령어가 변경되어 저장된다(S103).When the user changes the gesture-specific corresponding instruction (S102), the gesture-specific corresponding instruction is changed and stored (S103).

사용자가 스타일러스 등을 사용하여 화면을 접촉함으로써 제스쳐를 입력한다(S104).The user inputs a gesture by touching the screen using a stylus or the like (S104).

입력된 제스쳐가 커버(cover)하는 좌표들을 검출한다(S105).The coordinates covered by the input gesture are detected (S105).

검출된 좌표를 이용하여 메모리부(100)에 저장된 제스쳐 중 하나로 인식한다(S106).Recognizing one of the gestures stored in the memory unit 100 using the detected coordinates (S106).

인식된 제스쳐에 대응하는 명령어를 검출한다(S107).A command corresponding to the recognized gesture is detected (S107).

검출된 명령어가 프로세서(900)에 의해 실행된다(S108).The detected instruction is executed by the processor 900 (S108).

도6은 본 발명의 다른 실시예에 따른 제스쳐 인식 전자책 단말기에 대한 순서도이다.6 is a flowchart illustrating a gesture recognition e-book device according to another embodiment of the present invention.

이하, 도6을 참조하여 본 발명의 다른 실시예에 따른 동작 순서를 구체적으로 설명한다.Hereinafter, an operation sequence according to another embodiment of the present invention will be described in detail with reference to FIG. 6.

사용자가 스타일러스 등을 사용하여 화면을 접촉함으로써 입력부(200)의 특정 영역을 선택한다(S201).The user selects a specific area of the input unit 200 by touching the screen using a stylus or the like (S201).

선택된 영역을 커버(cover)하는 좌표를 검출한다(S202).Coordinates covering the selected area are detected (S202).

검출된 좌표를 이용하여 선택된 영역을 인식한다(S203).The selected area is recognized using the detected coordinates (S203).

인식된 선택 영역 및 텍스트가 위치한 좌표를 비교한다(S204).The recognized selection area and the coordinates where the text is located are compared (S204).

인식된 선택 영역에 일부분 이상 포함된 텍스트를 검출한다(S205).The text included in at least a portion of the recognized selection area is detected (S205).

검출된 텍스트가 실행된다(S206).The detected text is executed (S206).

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below. I can understand that you can.

본 발명은 제스쳐 인식 전자책 단말기 및 그 제어방법에 관한 것으로서, 보다 상세하게, 사용자가 입력한 제스쳐를 인식하여 명령을 실행할 수 있는 제스쳐 인식 전자책 단말기 및 그 제어방법에 관한 것이다.The present invention relates to a gesture recognition e-book terminal and a control method thereof, and more particularly, to a gesture recognition e-book terminal and a control method thereof capable of recognizing a gesture input by a user and executing a command.

이에 의해, 입력부에 간단히 제스쳐를 입력하는 방식으로 제스쳐에 해당 명령어를 실행할 수 있고, 입력부에 특정 영역을 선택하는 방식으로 전자책을 보던 도중 저장하기, 복사하기 등의 명령어를 실행할 수도 있다.As a result, a corresponding command may be executed in a gesture by simply inputting a gesture to the input unit, and a command such as saving or copying while viewing an e-book may be executed by selecting a specific region in the input unit.

도1은 본 발명의 일실시예에 따른, 제스쳐 인식 전자책 단말기에 대한 블럭도이다.1 is a block diagram of a gesture recognition e-book terminal according to an embodiment of the present invention.

도2는 본 발명의 일실시예에 따른, 제스쳐 인식 전자책 단말기에 제스쳐 입력 및 인식되는 것에 대한 설명도이다.2 is an explanatory diagram for inputting and recognizing a gesture in a gesture recognition e-book device according to an exemplary embodiment of the present invention.

도3은 본 발명의 다른 실시예에 따른, 제스쳐 인식 전자책 단말기에 대한 블럭도이다.3 is a block diagram of a gesture recognition e-book terminal according to another embodiment of the present invention.

도4는 본 발명의 다른 실시예에 따른, 제스쳐 인식 전자책 단말기에 특정 영역이 선택, 인식, 및 그를 이용하여 텍스트를 검출하는 것에 대한 설명도이다.4 is an explanatory diagram for selecting, recognizing, and detecting text using a specific region in a gesture recognition e-book terminal according to another embodiment of the present invention.

도5는 본 발명의 일실시예에 따른 제스쳐 인식 전자책 단말기에 대한 순서도이다.5 is a flowchart illustrating a gesture recognition e-book device according to an embodiment of the present invention.

도6은 본 발명의 다른 실시예에 따른 제스쳐 인식 전자책 단말기에 대한 순서도이다.6 is a flowchart illustrating a gesture recognition e-book device according to another embodiment of the present invention.

<도면의 주요부분에 대한 부호 설명><Description of Signs of Major Parts of Drawings>

100: 메모리부 200, 300: 입력부100: memory 200, 300: input

400, 500: 제스쳐 인식부 600, 700: 제어부400, 500: gesture recognition unit 600, 700: control unit

800, 900: 제어부800, 900: control unit

Claims (14)

제스쳐 인식 전자책 단말기에 있어서,In the gesture recognition e-book terminal, 제스쳐 및 상기 제스쳐별 대응 명령어를 저장하는 메모리부;A memory unit for storing a gesture and a corresponding instruction for each gesture; 화면 접촉에 의해 상기 제스쳐를 입력받는 입력부;An input unit which receives the gesture by screen contact; 상기 입력부를 통해 입력된 상기 제스쳐를 인식하는 제스쳐 인식부;A gesture recognition unit recognizing the gesture input through the input unit; 상기 제스쳐 인식부에 의해 인식된 제스쳐에 대응하는 명령어를 상기 메모리부에서 검출하는 제어부; 및A controller for detecting a command in the memory unit corresponding to the gesture recognized by the gesture recognition unit; And 상기 제어부에 의해 검출된 상기 명령어를 실행하는 프로세서를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.And a processor for executing the command detected by the controller. 제1항에 있어서,The method of claim 1, 상기 제스쳐는 원, 삼각형, 사각형, 및 체크(V)를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.And the gesture includes a circle, a triangle, a rectangle, and a check (V). 제1항에 있어서,The method of claim 1, 상기 제스쳐별 대응하는 명령어는 생산공정에서 미리 지정되고, 사용자의 선택에 의해 변경되는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.The gesture-recognized e-book terminal, wherein the corresponding command for each gesture is predetermined in a production process and changed by a user's selection. 제1항에 있어서,The method of claim 1, 상기 제스쳐 인식부는, 상기 입력부를 통해 입력된 상기 제스쳐의 좌표를 이용하여 상기 메모리부에 저장된 제스쳐 중 하나를 인식하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.And the gesture recognizing unit recognizes one of the gestures stored in the memory unit by using the coordinates of the gesture input through the input unit. 제스쳐 인식 전자책 단말기의 제스쳐 인식부에 있어서,In the gesture recognition unit of the gesture recognition e-book terminal, 입력부를 통해 입력받는 제스쳐의 좌표를 검출하고, 상기 검출된 좌표를 이용하여 메모리부에 저장된 제스쳐 중 하나로 인식하는 것을 특징으로 하는 제스쳐 인식부. The gesture recognition unit detects the coordinates of the gesture input through the input unit and recognizes one of the gestures stored in the memory unit using the detected coordinates. 제스쳐 인식 전자책 단말기에 있어서,In the gesture recognition e-book terminal, 접촉에 의해 화면의 특정 영역을 선택받는 입력부;An input unit configured to select a specific area of the screen by contact; 상기 입력부를 통해 선택된 영역을 인식하는 영역 인식부;An area recognition unit recognizing an area selected through the input unit; 상기 영역 인식부에 의해 인식된 영역에 포함되는 텍스트를 검출하는 제어부; 및A controller detecting text included in an area recognized by the area recognizer; And 상기 제어부에 의해 검출된 상기 텍스트를 실행하는 프로세서를 포함하는 것 을 특징으로 하는 제스쳐 인식 전자책 단말기.And a processor for executing the text detected by the controller. 제6항에 있어서,The method of claim 6, 상기 영역 인식부는, 상기 입력부를 통해 선택된 영역의 좌표를 검출하고, 상기 검출된 좌표들 중 X 및 Y좌표의 최대값 및 최소값을 이용하여 상기 선택 영역을 인식하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.The area recognition unit detects the coordinates of the area selected through the input unit, and recognizes the selected area by using the maximum and minimum values of the X and Y coordinates among the detected coordinates. . 제6항에 있어서,The method of claim 6, 상기 제어부는, 상기 영역 인식부에 의해 인식된 상기 선택 영역의 좌표 및 텍스트가 위치한 좌표를 비교하여, 상기 인식 영역에 일부분 이상 포함되는 텍스트를 검출하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.And the control unit detects text included in at least a portion of the recognition area by comparing coordinates of the selection area recognized by the area recognition unit with coordinates in which the text is located. 제스쳐 인식 전자책 단말기의 영역 인식부에 있어서,In the area recognition unit of the gesture recognition e-book terminal, 입력부를 통해 선택받는 영역의 좌표를 검출하고, 상기 검출된 좌표를 이용하여 상기 검출된 좌표들 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 상기 선택 영역을 인식하는 것을 특징으로 하는 영역 인식부.The region recognizing unit detects the coordinates of the region selected through the input unit and recognizes the selection region using the maximum and minimum values of the X and Y coordinates among the detected coordinates using the detected coordinates. . 제6항에 있어서,The method of claim 6, 상기 프로세서는, 상기 텍스트의 복사, 붙이기, 오려두기를 포함하는 텍스트 편집 및 텍스트 저장을 포함하는 실행을 하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기.And the processor is operable to include text editing and text storage including copying, pasting, and cutting the text. 제스쳐 인식 전자책 단말기의 제어방법에 있어서,In the control method of the gesture recognition e-book terminal, 제스쳐 및 상기 제스쳐별 대응 명령어를 저장하는 단계;Storing a gesture and a corresponding instruction for each gesture; 화면 접촉에 의해 제스쳐가 입력되는 단계;The gesture is input by the screen contact; 상기 입력되는 제스쳐의 좌표를 검출하는 단계;Detecting coordinates of the input gesture; 상기 검출된 좌표를 이용하여 메모리부에 저장된 제스쳐 중 하나로 인식하는 단계;Recognizing one of the gestures stored in a memory unit using the detected coordinates; 상기 인식된 제스쳐에 대응하는 명령어를 검출하는 단계; 및Detecting an instruction corresponding to the recognized gesture; And 상기 검출된 명령어를 실행하는 단계를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법.And executing the detected command. 제11항에 있어서,The method of claim 11, 사용자에 의해 상기 제스쳐별 대응 명령어가 변경되는 단계를 더 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법.The control method of the gesture recognition e-book terminal further comprises the step of changing the corresponding command for each gesture by a user. 제스쳐 인식 전자책 단말기의 제어방법에 있어서,In the control method of the gesture recognition e-book terminal, 접촉에 의해 화면의 특정 영역이 선택되는 단계; Selecting a specific area of the screen by contact; 상기 선택된 영역의 좌표를 검출하는 단계;Detecting coordinates of the selected area; 상기 검출된 좌표들 중 X 및 Y 좌표의 최대값 및 최소값을 이용하여 상기 선택 영역을 인식하는 단계;Recognizing the selection area by using maximum and minimum values of X and Y coordinates among the detected coordinates; 상기 인식 영역 및 텍스트가 위치한 좌표를 비교하는 단계;Comparing coordinates in which the recognition area and text are located; 비교 결과, 상기 인식 영역에 일부분 이상 포함되는 텍스트를 검출하는 단계; 및Detecting text included in at least a portion of the recognition area as a result of the comparison; And 상기 검출된 텍스트를 실행하는 단계를 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법.And executing the detected text. 제13항에 있어서,The method of claim 13, 상기 텍스트 실행은, 상기 텍스트의 복사, 붙이기, 오려두기를 포함하는 텍스트 편집 및 텍스트 저장을 포함하는 것을 특징으로 하는 제스쳐 인식 전자책 단말기의 제어방법.The text execution includes controlling the gesture-recognition e-book device, including text editing and text storage including copying, pasting, and cutting the text.
KR1020070077792A 2007-08-02 2007-08-02 Gesture perception - e book terminal and control method thereof KR20090013551A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070077792A KR20090013551A (en) 2007-08-02 2007-08-02 Gesture perception - e book terminal and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070077792A KR20090013551A (en) 2007-08-02 2007-08-02 Gesture perception - e book terminal and control method thereof

Publications (1)

Publication Number Publication Date
KR20090013551A true KR20090013551A (en) 2009-02-05

Family

ID=40683973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070077792A KR20090013551A (en) 2007-08-02 2007-08-02 Gesture perception - e book terminal and control method thereof

Country Status (1)

Country Link
KR (1) KR20090013551A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102629180A (en) * 2011-01-07 2012-08-08 微软公司 Natural input for spreadsheet actions
US9514116B2 (en) 2011-11-04 2016-12-06 Microsoft Technology Licensing, Llc Interaction between web gadgets and spreadsheets
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102629180A (en) * 2011-01-07 2012-08-08 微软公司 Natural input for spreadsheet actions
WO2012094396A3 (en) * 2011-01-07 2012-10-04 Microsoft Corporation Natural input for spreadsheet actions
AU2012204477B2 (en) * 2011-01-07 2016-11-03 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US10732825B2 (en) 2011-01-07 2020-08-04 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US9514116B2 (en) 2011-11-04 2016-12-06 Microsoft Technology Licensing, Llc Interaction between web gadgets and spreadsheets
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application

Similar Documents

Publication Publication Date Title
US20210103386A1 (en) Identification of candidate characters for text input
US8908973B2 (en) Handwritten character recognition interface
US9606981B2 (en) Electronic apparatus and method
US9274704B2 (en) Electronic apparatus, method and storage medium
EP2523070A2 (en) Input processing for character matching and predicted word matching
US20130300675A1 (en) Electronic device and handwritten document processing method
US20150169948A1 (en) Electronic apparatus and method
US20150123988A1 (en) Electronic device, method and storage medium
JP5728592B1 (en) Electronic device and handwriting input method
KR20100029877A (en) Methods and apparatus for searching and executing contents using touch screen
AU2010295574A1 (en) Gesture recognition on computing device
US20150146986A1 (en) Electronic apparatus, method and storage medium
US20160321238A1 (en) Electronic device, method and storage medium
US9025878B2 (en) Electronic apparatus and handwritten document processing method
US8989496B2 (en) Electronic apparatus and handwritten document processing method
US12067195B2 (en) Control method and electronic device
US9304679B2 (en) Electronic device and handwritten document display method
US20160154580A1 (en) Electronic apparatus and method
JP2013238919A (en) Electronic device and handwritten document search method
US9183276B2 (en) Electronic device and method for searching handwritten document
US20160117093A1 (en) Electronic device and method for processing structured document
KR20090013551A (en) Gesture perception - e book terminal and control method thereof
US20140064620A1 (en) Information processing system, storage medium and information processing method in an infomration processing system
KR20220017063A (en) Apparatus and method for providing handwriting input
US20160147437A1 (en) Electronic device and method for handwriting

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application