KR101358422B1 - Device for character input - Google Patents

Device for character input Download PDF

Info

Publication number
KR101358422B1
KR101358422B1 KR1020130027464A KR20130027464A KR101358422B1 KR 101358422 B1 KR101358422 B1 KR 101358422B1 KR 1020130027464 A KR1020130027464 A KR 1020130027464A KR 20130027464 A KR20130027464 A KR 20130027464A KR 101358422 B1 KR101358422 B1 KR 101358422B1
Authority
KR
South Korea
Prior art keywords
finger
point
input
touch
character
Prior art date
Application number
KR1020130027464A
Other languages
Korean (ko)
Inventor
조현중
선주형
김미소
서경은
김철원
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020130027464A priority Critical patent/KR101358422B1/en
Application granted granted Critical
Publication of KR101358422B1 publication Critical patent/KR101358422B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A processing information device comprises an input unit identification unit, an interface control unit, a search unit, and a character information display unit. The input unit identification unit enables a user to identify the kinds of a finger which performs input processing from the input data of the user inputted through a character input interface device. The interface control unit displays a graphic user interface on a display of the information processing device. The graphic user interface displays character information which is matched according to a combination state of the finger or the kinds of the finger through a point guide. The search unit searches the character information matched to the combination of the finger identified by the input unit identification unit. The character information display unit displays the character information searched through the search unit on the display. The point guide comprises a point which guides finger input and a connection line which guides each point. The length of the connection line is increased in comparison to point intervals. [Reference numerals] (100) Character input device; (300) Information processing device

Description

문자 입력 장치{DEVICE FOR CHARACTER INPUT}Character input device {DEVICE FOR CHARACTER INPUT}

본 발명은 문자 입력 장치에 관한 것이다.The present invention relates to a character input device.

컴퓨터, 스마트기기, ATM기기 등의 문자 입력을 위한 키보드에 있어서 버튼 하나가 하나의 문자에 대응하는 일대일 방식의 키보드나 전자식 전화기에 주로 구성되는 3x4 배열의 숫자 키패드를 활용한 문자 입력 키보드가 일반적으로 사용되고 있다. 그러나 일대일 방식의 키보드는 양손을 사용해야 하고 문자의 개수만큼 키보드 버튼이 구성되어 많은 공간을 차지하며, 숫자 키패드를 활용한 키보드는 문자 입력을 위해서 버튼을 여러 번 눌러야 하는 단점이 있다.In keyboards for text input of computers, smart devices, ATMs, etc., a one-to-one keyboard with one button corresponding to a single letter or a text input keyboard using a 3x4 array of numeric keypads mainly composed of an electronic telephone is generally used. It is used. However, the one-to-one type keyboard has to use both hands and the keyboard buttons are configured as many as the number of characters, which takes up a lot of space, and the keyboard using the numeric keypad has a disadvantage of pressing a button several times for character input.

게다가, 컴퓨터는 태블릿PC(tablet PC), 키오스크(kiosk), 웨어러블 컴퓨터(wearable computer) 등과 같이 크기와 형태, 인터페이스 등에서 점차 다양화되고 있으나 키보드는 종전의 포맷을 사용하는데 머무르고 있다. 특히, 터치 스크린과 센서를 활용한 스마트기기의 개발이 활발히 이루어지면서 다양한 사용자 경험 및 편리함이 제공되고 있는 반면, 문자 입력 키보드의 개발은 매우 미흡한 실정이다.In addition, computers are increasingly diversified in size, shape, interface, and the like, such as tablet PCs, kiosks, and wearable computers, but keyboards are still using conventional formats. In particular, as the development of smart devices using touch screens and sensors has been actively conducted, various user experiences and conveniences have been provided, while the development of character input keyboards is very insufficient.

따라서, 종전의 키보드의 단점을 보완하고 터치 스크린과 센서의 특성을 반영하여 사용자에게 편리한 사용성을 제공하는 키보드의 개발이 필요하다. 특히, 키보드 구성에 있어서 많은 공간을 차지하지 않으면서 한 손으로 편리하게 문자를 입력할 수 있는 키보드에 대한 개발이 요구되고 있다.Therefore, it is necessary to develop a keyboard that complements the disadvantages of the conventional keyboard and provides the user with convenient usability by reflecting the characteristics of the touch screen and the sensor. In particular, there is a demand for development of a keyboard that can conveniently enter characters with one hand without taking much space in keyboard configuration.

이와 관련하여 한국 공개특허공보 제 2011-0050356호(발명의 명칭: 터치 스크린 장치의 터치 정보 처리 장치 및 방법)에는 미리 정의된 좌표의 변화 정보 또는 가속도 미터의 회전 정보에 대응하는 키보드나 마우스의 입력정보인 입력 변환 정보를 저장하고 있는 데이터베이스를 구비하고, 터치 스크린 장치로부터 복수의 터치 정보를 수신하여 이를 입력장치의 입력으로 변환하는 터치 정보 처리 장치 및 방법에 대해 제안하고 있다.In this regard, Korean Patent Laid-Open Publication No. 2011-0050356 (name of the invention: an apparatus and method for processing touch information of a touch screen device) includes input of a keyboard or a mouse corresponding to change information of a predefined coordinate or rotation information of an acceleration meter. A touch information processing apparatus and a method including a database storing input conversion information as information and receiving a plurality of touch information from a touch screen device and converting the same into input of an input device are proposed.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 본 발명의 일부 실시예는 다섯 손가락의 입력 조합을 식별하여 문자를 입력할 수 있으며, 문자 입력 및 문자 입력 과정을 직관적으로 확인할 수 있는 인터페이스를 구성하는 장치를 제공하고자 한다.The present invention is to solve the above-described problems of the prior art, some embodiments of the present invention can identify the input combination of five fingers to input characters, an interface that can intuitively check the character input and character input process It is intended to provide a device for configuring.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 정보 처리 장치는 문자 입력 인터페이스 장치를 통해 입력된 사용자의 입력 데이터로부터, 사용자가 입력 처리를 수행한 손가락의 종류를 식별하는 입력 수단 식별부, 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 통해 나타내는 그래픽 사용자 인터페이스를 상기 정보 처리 장치의 디스플레이에 표시하는 인터페이스 제어부, 상기 입력 수단 식별부에 의해 식별된 손가락의 조합에 매칭되는 문자 정보를 검색하는 검색부, 상기 검색부를 통해 검색된 문자 정보를 상기 디스플레이에 표시하는 문자 정보 표시부를 포함하되, 상기 포인트 가이드는 손가락 입력을 가이드하는 포인트 및 각 포인트의 조합을 가이드하는 연결선을 포함하되, 연결선의 길이는 포인트 간격에 비례하여 증가할 수 있다.As a technical means for achieving the above-described technical problem, the information processing apparatus according to an embodiment of the present invention is to identify the type of the finger, the user performed the input processing from the user's input data input through the character input interface device An interface control unit for displaying on the display of the information processing apparatus a graphic user interface indicating, via a point guide, character information matched according to an input means identification unit, a type of finger, or a combination state of the fingers; A search unit for searching for text information matching the combination of the fingers, and a text information display unit for displaying the text information searched through the search unit on the display, wherein the point guide includes a point for guiding a finger input and a combination of each point. Connecting line to guide the Including, but the length of the connecting line may increase in proportion to the point spacing.

또한, 본 발명의 다른 실시예에 따른 문자 입력 장치는 터치 스크린, 상기 터치 스크린의 테두리에 인접한 위치에 결합된 카메라, 상기 카메라와 인접한 위치에 상기 카메라의 촬영 방향과 교차하도록 결합되어, 상기 카메라가 사용자의 터치 동작을 촬영하도록 가이드하는 미러, 상기 터치 스크린에 대한 터치 동작 발생시에 상기 터치 스크린상의 터치가 발생한 지점에 해당 지점을 강조 표시하는 마커를 출력하는 터치 지점 표시부, 상기 터치 스크린에 대한 터치 동작을 촬영한 영상에 기초하여 터치 동작을 수행한 손가락의 종류를 식별하는 입력 수단 식별부, 상기 입력 수단 식별부를 통해 식별된 손가락에 대응하는 문자 정보를 검색하는 검색부 및 상기 문자 정보를 출력하는 출력부를 포함할 수 있다.In addition, the character input device according to another embodiment of the present invention is a touch screen, a camera coupled to a position adjacent to the edge of the touch screen, coupled to the camera adjacent to the direction of the camera is coupled to the position adjacent to the camera, A mirror for guiding a user's touch action, a touch point display unit for outputting a marker for highlighting a corresponding point at a point where a touch on the touch screen occurs when a touch action on the touch screen occurs, a touch action on the touch screen An input means identification unit for identifying a type of a finger performing a touch operation based on the captured image, a search unit for searching for character information corresponding to the finger identified through the input means identification unit, and an output for outputting the character information It may include wealth.

전술한 본 발명의 과제 해결 수단에 의하면, 단일 및 둘 이상의 조합에 의한 다섯 손가락의 입력에 매칭되는 문자가 입력될 수 있으므로 한 손을 사용하여 기설정된 모든 문자를 입력할 수 있다.According to the problem solving means of the present invention described above, since a character matching a five-finger input by a single and two or more combinations can be input, all the predetermined characters can be input using one hand.

또한, 전술한 본 발명의 과제 해결 수단에 의하면, 화면을 통해 사용자의 손과 인식 여부, 입력된 문자를 확인할 수 있는 직관적인 사용자 그래픽 인터페이스를 제공함으로써 사용자의 사용성 및 편리성을 증대시킬 수 있다.In addition, according to the above-described problem solving means of the present invention, by providing an intuitive user graphic interface that can check the user's hand and whether the recognition, the input character through the screen can increase the usability and convenience of the user.

도 1은 본 발명의 일 실시예에 따른 문자 입력 장치를 통한 문자 입력 시스템이 도시된 구성도이다.
도 2는 본 발명의 일 실시예에 따른 정보 처리 장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 다른 실시예에 따른 문자 입력 장치의 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 다른 실시예에 따른 문자 입력 장치에서 입력 수단 식별부의 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 포인트 가이드의 조합을 나타낸 그래픽 사용자 인터페이스의 일례이다.
도 6은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스에서 사용자에 의해 입력된 조합 포인트를 강조 표시한 일례이다.
도 7은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스와 문자 정보의 매칭을 설명하기 위한 일례이다.
도 8은 본 발명의 다른 실시예에 따른 문자 입력 장치를 이용한 문자 입력 방법을 설명하기 위한 일례이다.
도 9는 본 발명의 다른 실시예에 따른 문자 입력 장치에서 3D 깊이 센서를 이용한 손가락 끝점 추출 방법을 설명하기 위한 일례이다.
도 10은 본 발명의 일 실시예에 따른 정보 처리 장치에서 3D 깊이 센서를 이용한 손가락 끝점 추출 방법을 설명하기 위한 일례이다.
도 11은 본 발명의 일 실시예에 따른 정보 처리 장치에서 물리적 버튼을 이용한 입력 방법을 설명하기 위한 일례이다.
도 12는 본 발명의 일 실시예에 따른 문자 입력 장치와 정보 처리 장치를 통한 문자 입력 시스템의 구성을 설명하기 위한 일례이다.
도 13은 본 발명의 일 실시예에 따른 정보 처리 장치를 통한 문자 입력 방법을 설명하기 위한 순서도이다.
도 14는 본 발명의 일 실시예에 따른 문자 입력 장치를 통한 문자 입력 방법을 설명하기 위한 순서도이다.
1 is a block diagram showing a character input system through a character input device according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an information processing apparatus according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of a character input apparatus according to another embodiment of the present invention.
4 is a block diagram illustrating a configuration of an input means identification unit in the character input apparatus according to another embodiment of the present invention.
5 is an example of a graphical user interface illustrating a combination of point guides in accordance with one embodiment of the present invention.
6 illustrates an example of highlighting a combination point input by a user in a graphical user interface according to an embodiment of the present invention.
7 is an example for explaining matching of a graphic user interface and text information according to an embodiment of the present invention.
8 is an example for describing a character input method using a character input apparatus according to another embodiment of the present invention.
FIG. 9 is an example for explaining a method of extracting a finger point using a 3D depth sensor in a text input device according to another embodiment of the present invention.
FIG. 10 is an example for explaining a method of extracting a finger point using a 3D depth sensor in an information processing apparatus according to an embodiment of the present invention.
11 is an example for describing an input method using a physical button in an information processing apparatus according to an embodiment of the present invention.
12 is an example for explaining the configuration of a character input system through a character input apparatus and an information processing apparatus according to an embodiment of the present invention.
FIG. 13 is a flowchart illustrating a text input method through an information processing device according to an embodiment of the present invention.
14 is a flowchart illustrating a text input method through the text input device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

도 1은 본 발명의 일 실시예에 따른 문자 입력 장치를 통한 문자 입력 시스템이 도시된 구성도이다.1 is a block diagram showing a character input system through a character input device according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 문자 입력 시스템(400)은 정보 처리 장치(300) 및 문자 입력 장치(100)를 포함한다.The character input system 400 according to an embodiment of the present invention includes an information processing apparatus 300 and a character input apparatus 100.

정보 처리 장치(300)는 문자 입력 장치(100)를 통해 문자 입력을 받을 수 있다. 이때, 정보 처리 장치(300)는 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 통해 나타내는 그래픽 사용자 인터페이스로 표시할 수 있다.The information processing apparatus 300 may receive a text input through the text input apparatus 100. In this case, the information processing apparatus 300 may display the character information matched according to the type of the finger or the combination state of the fingers through a graphic user interface indicating through the point guide.

또한, 문자 입력 장치(100)를 통해 출력된 문자 정보가 정보 처리 장치(300)로 전송될 수 있다. 이때, 문자 입력 장치(100)에서 출력되는 문자 정보는 사용자의 손가락을 인식하여 생성된 포인트 또는 둘 이상의 포인트의 조합에 매칭되는 데이터이거나 문자 정보를 암호화한 문자 암호화 데이터가 포함될 수 있다.In addition, the text information output through the text input apparatus 100 may be transmitted to the information processing apparatus 300. In this case, the text information output from the text input apparatus 100 may be data generated by recognizing a user's finger or data matched with a combination of two or more points, or may include text data encrypted with text information.

한편, 도 1은 정보 처리 장치(300) 및 문자 입력 장치(100)가 분리되어 도시되었으나, 문자 입력 시스템(400)은 정보 처리 및 문자 입력을 동시에 수행하는 테이블탑(table top), 키오스크(kiosk) 등과 같은 장치를 포함할 수 있다.Meanwhile, although FIG. 1 shows the information processing apparatus 300 and the character input apparatus 100 separately, the character input system 400 performs a table top and kiosk that simultaneously perform information processing and character input. Device), and the like.

도 2는 본 발명의 일 실시예에 따른 정보 처리 장치의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of an information processing apparatus according to an embodiment of the present invention.

이때, 본 발명의 일 실시예에서는, 정보 처리 장치(300)가 멀티미디어 장치(예를 들어, 스마트 TV)인 것을 예로서 설명하도록 한다.At this time, in an embodiment of the present invention, it will be described as an example that the information processing device 300 is a multimedia device (for example, a smart TV).

참고로, 도 2에서는 본 발명의 일 실시예에 따른 손가락 인식을 통한 정보 처리 장치(300)의 구성들을 도시하였으나, 장치의 종류에 따라 이 외에도 다른 처리부(미도시)들이 더 포함될 수 있다.For reference, FIG. 2 illustrates the configuration of the information processing apparatus 300 through finger recognition according to an embodiment of the present invention. However, other processing units (not shown) may be further included according to the type of the apparatus.

또한, 본 발명의 일 실시예에 따른 정보 처리 장치(300)는 멀티미디어 장치에 한정되는 것이 아닌 다양한 종류의 기기일 수 있으며, 각 기기의 종류 및 목적에 따라 상이한 처리부들을 더 포함할 수 있다.In addition, the information processing apparatus 300 according to an embodiment of the present invention may be various types of devices, not limited to a multimedia device, and may further include different processing units according to the type and purpose of each device.

본 발명의 일 실시예에 따른 정보 처리 장치(300)는 입력 수단 식별부(310), 문자 정보 저장부(320), 검색부(330), 인터페이스 제어부(340) 및 문자 정보 표시부(350)를 포함한다.The information processing apparatus 300 according to an embodiment of the present invention may include an input means identification unit 310, a text information storage unit 320, a search unit 330, an interface control unit 340, and a text information display unit 350. Include.

입력 수단 식별부(310)는 문자 입력 인터페이스 장치(360)를 통해 입력된 사용자의 입력 데이터로부터, 사용자가 입력 처리를 수행한 손가락의 종류를 식별할 수 있다.The input means identification unit 310 may identify the type of the finger that the user has performed the input process from, the user's input data input through the text input interface device 360.

예를 들면, 문자 입력 인터페이스 장치(360)가 3D 깊이 센서(361)일 경우, 3D 깊이 센서(361)를 통해 감지된 손가락의 깊이 정보에 기초하여 손가락의 끝점을 추출할 수 있다. 예를 들면, 3D깊이 센서(361)로부터 지근거리내에 불연속한 다섯 개의 점을 다섯 손가락의 끝점으로 추출할 수 있다. 추출된 다섯 개의 점을 각각의 손가락의 끝점으로 구별하고, 깊이 정보의 변화 및 대응에 따라 터치 동작을 수행한 손가락을 식별할 수 있다. 이에 대한 보다 상세한 설명은 도 10을 참조하여 후술하기로 한다.For example, when the text input interface device 360 is the 3D depth sensor 361, the endpoint of the finger may be extracted based on the depth information of the finger detected by the 3D depth sensor 361. For example, five points discontinuous within the close range from the 3D depth sensor 361 can be extracted as the end points of five fingers. The extracted five points may be distinguished by the end points of the respective fingers, and the finger performing the touch operation may be identified according to the change and the correspondence of the depth information. A more detailed description thereof will be described later with reference to FIG. 10.

또한, 문자 입력 인터페이스 장치(360)가 물리적 버튼(362)일 경우, 물리적 버튼(362) 하나의 입력 데이터를 사용자의 손가락 하나의 입력으로 대응시켜 입력된 손가락을 식별할 수 있다. 예를 들면, 엄지와 중지에 해당하는 물리적 버튼(362)이 사용자에 의해 입력되면 입력 수단 식별부(310)는 입력 데이터를 통해 엄지 버튼과 중지 버튼이 입력되었음을 식별할 수 있다. 이에 대한 보다 상세한 설명은 도 11을 참조하여 후술하기로 한다.In addition, when the character input interface device 360 is the physical button 362, the input finger of the physical button 362 may be mapped to the input of one finger of the user to identify the input finger. For example, when the physical button 362 corresponding to the thumb and the stop is input by the user, the input means identification unit 310 may identify that the thumb button and the stop button are input through the input data. A more detailed description thereof will be described later with reference to FIG. 11.

문자 정보 저장부(320)는 입력 수단 식별부(310)를 통해 식별된 손가락에 대응하는 문자 정보를 저장할 수 있다. 즉, 엄지, 검지, 중지, 약지 및 소지에 해당하는 각각의 포인트 및 둘 이상의 포인트의 조합에 따라 매칭되는 문자 정보를 저장할 수 있다.The text information storage unit 320 may store text information corresponding to the finger identified through the input means identification unit 310. That is, character information matched according to each point corresponding to the thumb, the index finger, the middle finger, the ring finger, and the hand and a combination of two or more points may be stored.

검색부(330)는 입력 수단 식별부(310)에 의해 식별된 손가락의 조합에 매칭되는 문자 정보를 검색할 수 있다. 즉, 문자 정보 저장부(320)로부터 입력 수단 식별부(310)에 의해 식별된 손가락의 조합에 대응하는 문자 정보를 검색할 수 있다.The searcher 330 may search for text information that matches a combination of fingers identified by the input means identification unit 310. That is, the character information corresponding to the combination of the fingers identified by the input means identification unit 310 may be retrieved from the character information storage unit 320.

인터페이스 제어부(340)는 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 통해 나타내는 그래픽 사용자 인터페이스를 정보 처리 장치(300)의 디스플레이에 표시할 수 있다. 또한, 사용자의 입력 처리에 따라 선택된 포인트 및 연결선과 그에 매칭된 문자 정보를 실시간으로 표시할 수 있다. 이때, 포인트 가이드는 손가락 입력을 가이드하는 포인트 및 각 포인트의 조합을 가이드하는 연결선을 포함하되, 연결선의 길이는 포인트 간격에 비례하여 증가할 수 있으며, 포인트의 조합에 따라 매칭되는 문자 및 배치가 사용자에 의해 설정될 수 있다.The interface controller 340 may display, on the display of the information processing apparatus 300, a graphical user interface indicating character information matched according to the type of finger or the combination state of the fingers through a point guide. In addition, according to the user's input processing, the selected point and connection line and the text information matched thereto may be displayed in real time. In this case, the point guide includes a point for guiding a finger input and a connecting line for guiding a combination of each point, but the length of the connecting line may increase in proportion to the interval between points, and the character and arrangement matched according to the combination of the points may be used. It can be set by.

문자 정보 표시부(350)는 검색부(330)를 통해 검색된 문자 정보를 상기 디스플레이에 표시할 수 있다.The text information display unit 350 may display text information searched through the search unit 330 on the display.

또한, 정보 처리 장치(300)는 외부 문자 입력 인터페이스 장치(360)를 추가 구성하여 외부 문자 입력 인턴페이스 장치(360)로부터 문자 입력을 위한 데이터를 수신할 수 있다.In addition, the information processing apparatus 300 may further configure the external character input interface device 360 to receive data for character input from the external character input intern interface device 360.

문자 입력 인터페이스 장치(360)는 사용자의 손가락 터치 동작을 감지하는 3D 깊이 센서(361)이거나 각각의 손가락에 대응하는 구별된 복수의 버튼으로 구성된 물리적 버튼(362)일 수 있다. 이 외에도 손가락의 종류를 구별하고 입력 데이터를 입력할 수 있는 장치를 포함할 수 있다.The text input interface device 360 may be a 3D depth sensor 361 that detects a user's finger touch operation or may be a physical button 362 composed of a plurality of distinct buttons corresponding to each finger. In addition, it may include a device that can distinguish the type of finger and input the input data.

도 3은 본 발명의 다른 실시예에 따른 문자 입력 장치의 구성을 설명하기 위한 블록도이다.3 is a block diagram illustrating a configuration of a character input apparatus according to another embodiment of the present invention.

이때, 본 발명의 일 실시예에서는, 문자 입력 장치(100)가 휴대용 통신 기기(예를 들어, 태블릿PC)인 것을 예로서 설명하도록 한다.At this time, in an embodiment of the present invention, it will be described as an example that the character input device 100 is a portable communication device (for example, a tablet PC).

참고로, 도 3에서는 본 발명의 일 실시예에 따른 손가락 인식을 통한 문자 입력 장치(100)의 구성들을 도시하였으나, 장치의 종류에 따라 이 외에도 다른 처리부(미도시)들이 더 포함될 수 있다.For reference, FIG. 3 illustrates the configuration of the character input apparatus 100 through finger recognition according to an embodiment of the present invention. However, other processing units (not shown) may be further included according to the type of the apparatus.

또한, 본 발명의 일 실시예에 따른 문자 입력 장치(100)는 휴대용 통신 기기에 한정되는 것이 아닌 다양한 종류의 기기일 수 있으며, 각 기기의 종류 및 목적에 따라 상이한 처리부들을 더 포함할 수 있다. 예를 들어, 문자 입력 장치(100)가 은행에서 사용되는 ATM기기일 경우, 은행 전산과 연결되는 통신 모듈, 각 계좌에 대한 은행 전산 업무를 수행하는 전산 처리부 및 사용자가 은행 업무를 처리하기 위하여 정보를 입력 받거나 은행 업무 처리 결과를 출력하기 위한 사용자 인터페이스 모듈 등 다수의 처리부들을 더 포함하여 구성될 수 있다.In addition, the character input apparatus 100 according to an embodiment of the present invention may be various types of devices, not limited to a portable communication device, and may further include different processing units according to the type and purpose of each device. For example, when the character input device 100 is an ATM device used in a bank, a communication module connected to a bank computer, a computer processing unit that performs a bank computer operation for each account, and a user may use information to process a bank business. It may be configured to further include a plurality of processing units, such as a user interface module for receiving input or output the banking business processing results.

본 발명의 일 실시예에 따른 문자 입력 장치(100)는 터치 스크린(110), 카메라(120), 미러(130), 3D깊이 센서(140), 터치 지점 표시부(150), 입력 수단 식별부(160), 검색부(170), 출력부(180), 문자 정보 저장부(190) 및 인터페이스 처리부(200)를 포함한다.Character input device 100 according to an embodiment of the present invention is a touch screen 110, camera 120, mirror 130, 3D depth sensor 140, touch point display unit 150, input means identification unit ( 160, a search unit 170, an output unit 180, a text information storage unit 190, and an interface processor 200.

터치 스크린(110)은 문자 입력 장치(100)의 전면에 위치하고, 사용자의 터치에 의해 발생된 지점을 강조 표시하는 마커가 생성되어 표시될 수 있다. 예를 들어, 사용자가 중지와 약지를 동시에 터치하면 중지와 약지가 터치한 지점을 강조 표시하는 마커가 터치 스크린(110)에 표시될 수 있다.The touch screen 110 may be located in front of the text input apparatus 100, and a marker for highlighting a point generated by a user's touch may be generated and displayed. For example, when the user touches the middle finger and the ring finger at the same time, a marker for highlighting a point where the middle finger and the ring finger touches may be displayed on the touch screen 110.

카메라(120)는 터치 스크린(110)의 테두리에 인접한 위치에 결합되고, 미러(130)에 의해 반사된 사용자의 터치 동작을 촬영할 수 있다. 촬영된 터치 동작 영상은 사용자의 손가락 끝점을 추출하는 데 사용될 수 있으며 손가락의 끝점은 손가락을 식별하는 정보로 사용될 수 있다. 촬영된 영상을 통한 입력 수단을 식별하는 과정은 도 7을 참조하여 후술하기로 한다.The camera 120 may be coupled to a position adjacent to the edge of the touch screen 110 and capture a user's touch motion reflected by the mirror 130. The captured touch operation image may be used to extract the end point of the user's finger, and the end point of the finger may be used as information for identifying the finger. A process of identifying the input means through the captured image will be described later with reference to FIG. 7.

미러(130)는 카메라(120)와 인접한 위치에 카메라(120)의 촬영 방향과 교차하도록 결합되어, 카메라(120)가 사용자의 터치 동작을 촬영하도록 가이드할 수 있다. 즉, 카메라(120)의 촬영 각도에서 벗어나 있는 사용자의 터치 동작을 미러(130)를 이용하여 굴절시켜 카메라(120)의 촬영 각도에 포함될 수 있도록 가이드할 수 있다. 문자 입력 장치(100)에서 미러(130)의 구성 및 촬영 영상의 일례는 도 8을 참조하여 후술하기로 한다.The mirror 130 may be coupled to intersect the photographing direction of the camera 120 at a position adjacent to the camera 120 to guide the camera 120 to capture a user's touch operation. That is, the touch motion of the user who is out of the photographing angle of the camera 120 may be deflected by using the mirror 130 to guide the touch motion to be included in the photographing angle of the camera 120. An example of the configuration of the mirror 130 and the captured image in the character input device 100 will be described later with reference to FIG. 8.

3D깊이 센서(140)는 카메라(120)가 결합된 지점에 인접하여 결합될 수 있고, 센서를 통해 감지된 깊이 정보에 기초하여 손가락의 끝점을 추출할 수 있다. 예를 들면, 카메라(120)가 결합된 지점에 인접한 지점 중 사용자의 터치 동작을 정면에서 바라보는 위치에 결합되고, 3D깊이 센서(140)로부터 지근거리내에 불연속한 다섯 개의 점을 다섯 손가락의 끝점으로 추출할 수 있다. 3D깊이 센서(140)에 의해 감지된 손가락의 끝점은 손가락을 식별하는 정보로 사용될 수 있으며, 보다 상세한 과정은 도 9를 참조하여 후술하기로 한다.The 3D depth sensor 140 may be coupled adjacent to the point where the camera 120 is coupled, and may extract the end point of the finger based on the depth information detected by the sensor. For example, the point where the camera 120 is coupled to the position facing the user's touch movement in front of the point adjacent to the point where the camera 120 is coupled, and the five points discontinuous within the close distance from the 3D depth sensor 140, the end point of the five fingers. Can be extracted with An end point of the finger detected by the 3D depth sensor 140 may be used as information for identifying a finger, and a more detailed process will be described later with reference to FIG. 9.

터치 지점 표시부(150)는 터치 스크린(110)에 대한 터치 동작 발생시에 터치 스크린(110)상의 터치가 발생한 지점에 해당 지점을 강조 표시하는 마커를 출력할 수 있다. 즉, 터치 스크린(110)에 의해 입력된 터치 지점을 강조 표시하는 마커를 터치 지점 표시부(150)에서 출력하여 다시 터치 스크린(110)상에 표시할 수 있다. 예를 들면, 터치 동작이 발생된 지점을 배경색 혹은 기타 디스플레이상 존재하는 색에 대비되어 강조되는 색상이나, 특정 모양이나 문구 등 영상처리기술이 수용하는 마커 인식 방법을 사용하여 강조 표시를 할 수 있다.The touch point display unit 150 may output a marker for highlighting a corresponding point at a point where a touch on the touch screen 110 occurs when a touch operation on the touch screen 110 occurs. That is, the marker for highlighting the touch point input by the touch screen 110 may be output from the touch point display unit 150 and displayed on the touch screen 110 again. For example, the point where the touch action is generated may be highlighted using a marker recognition method accepted by an image processing technology such as a color that is emphasized in contrast to a background color or other colors present on a display, or a specific shape or phrase. .

입력 수단 식별부(160)는 터치 스크린(110)에 대한 터치 동작을 촬영한 영상에 기초하여 터치 동작을 수행한 손가락의 종류를 식별할 수 있다. 즉, 터치 동작 촬영 영상에서 터치 동작을 수행한 손가락이 엄지, 검지, 중지, 약지 및 소지 중 어느 손가락인지 식별할 수 있다. 손가락이 식별되는 과정에 대한 보다 상세한 설명은 도4를 참조하여 후술하기로 한다.The input means identification unit 160 may identify the type of the finger that performed the touch operation based on the image of the touch operation on the touch screen 110. That is, it is possible to identify which of the thumb, the index finger, the middle finger, the ring finger, and the finger of the finger performing the touch operation in the touch motion photographed image. A more detailed description of the process of identifying a finger will be described later with reference to FIG. 4.

검색부(170)는 입력 수단 식별부(160)에 의해 식별된 손가락의 조합에 매칭되는 문자 정보를 검색할 수 있다. 이때, 문자 정보는 문자 정보 저장부(190)에 저장된 데이터로써, 사용자 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 데이터이다. 즉, 검색부(170)는 문자 정보 저장부(190)로부터 식별된 손가락에 대응하는 문자 정보를 검색할 수 있다.The search unit 170 may search for text information that matches a combination of fingers identified by the input means identification unit 160. In this case, the text information is data stored in the text information storage 190 and is text data matched according to the type of the user's finger or the combination state of the fingers. That is, the search unit 170 may search for text information corresponding to the finger identified from the text information storage unit 190.

출력부(180)는 검색부(170)에 의해 검색된 문자 정보를 출력할 수 있다. 즉, 출력한 문자 정보를 TV, 컴퓨터, 스크린, 태블릿 PC 등의 외부 정보 처리 장치(300)에 전송할 수 있다. 또한, 출력부(180)는 상기 문자 정보를 암호화한 문자 암호화 데이터를 외부 정보 처리 장치(300)에 전송할 수 있다.The output unit 180 may output text information searched by the search unit 170. That is, the output character information may be transmitted to an external information processing apparatus 300 such as a TV, a computer, a screen, a tablet PC, and the like. In addition, the output unit 180 may transmit character encrypted data obtained by encrypting the character information to the external information processing apparatus 300.

문자 정보 저장부(190)는 입력 수단 식별부(160)를 통해 식별된 손가락에 대응하는 문자 정보를 저장할 수 있다. 이때, 문자 정보는 엄지, 검지, 중지, 약지 및 소지에 해당하는 각각의 포인트 및 둘 이상의 포인트의 조합에 따라 매칭되는 것이다.The text information storage unit 190 may store text information corresponding to the finger identified through the input means identification unit 160. In this case, the character information is matched according to each point and a combination of two or more points corresponding to the thumb, the index finger, the middle finger, the ring finger, and the hand.

또한, 문자 정보 저장부(190)는 각각의 포인트 및 둘 이상의 포인트의 조합을 터치하는 터치 입력 제스처에 따라 매칭되는 문자 정보를 저장할 수 있다. 즉, 터치 스크린을 터치할 때 터치하며 드래그하기, 연속 터치하기, 오래 터치하기 등과 같은 터치 입력 제스처에 따라 매칭되는 문자 정보를 터치 스크린을 통해 입력함으로써 문자 정보를 입력할 수 있다. 예를 들면, 알파벳 소문자 ‘a’의 입력을 위해 ‘a’에 매칭되는 손가락 조합을 터치 스크린에 터치시키면서 위쪽으로 드래그를 한 후 터치 오프를 할 경우, 알파벳 대문자 ‘A’가 입력될 수 있다.Also, the text information storage unit 190 may store matched text information according to a touch input gesture of touching each point and a combination of two or more points. That is, when the touch screen is touched, character information may be input by inputting character information matched according to a touch input gesture such as touch and drag, continuous touch, long touch, and the like through the touch screen. For example, when the user drags upward while touching a finger combination matching 'a' on the touch screen to input a lowercase alphabet 'a', the uppercase alphabet 'A' may be input.

인터페이스 처리부(200)는 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 통해 나타내는 그래픽 사용자 인터페이스를 표시할 수 있다. 이때, 포인트 가이드는 손가락 입력을 가이드하는 포인트 및 각 포인트의 조합을 가이드하는 연결선을 포함하되, 연결선의 길이는 포인트 간격에 비례하여 증가할 수 있다. 또한 포인트 가이드는 상기 포인트의 조합에 따라 매칭되는 문자 및 배치가 사용자에 의해 설정될 수 있다.The interface processor 200 may display a graphic user interface indicating character information matched according to the type of the finger or the combination state of the fingers through the point guide. In this case, the point guide includes a point for guiding a finger input and a connection line for guiding a combination of each point, but the length of the connection line may increase in proportion to the point interval. In addition, the point guide may be set by the user to match the character and arrangement according to the combination of the points.

도 4는 본 발명의 다른 실시예에 따른 문자 입력 장치에서 입력 수단 식별부의 구성을 설명하기 위한 블록도이다.4 is a block diagram illustrating a configuration of an input means identification unit in the character input apparatus according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 입력 수단 식별부(160)는 에지 검출부(161), 터치 지점 식별부(162), 손가락 식별부(163)를 포함한다.The input means identification unit 160 according to an embodiment of the present invention includes an edge detector 161, a touch point identification unit 162, and a finger identification unit 163.

에지 검출부(161)는 카메라(120)를 통해 촬영한 사용자의 터치 동작 영상에 기초하여 손가락의 끝점을 추출할 수 있다. 즉, 카메라(120)에 의해 촬영된 영상을 통해 손가락 식별 코드에 대응하는 다섯 개의 손가락 끝점을 추출할 수 있다. 예를 들면, 일반적으로 알려진 에지검출(edge detection)알고리즘에 기초하여 추출할 수 있으며, 구체적인 알고리즘에 대한 설명은 생략한다.The edge detector 161 may extract the end point of the finger based on the touch motion image of the user captured by the camera 120. That is, five finger endpoints corresponding to the finger identification code may be extracted from the image photographed by the camera 120. For example, it can be extracted based on a generally known edge detection algorithm, and a detailed description of the algorithm is omitted.

또한, 에지 검출부(161)는 3D 깊이 센서(140)를 통해 감지된 깊이 정보에 기초하여 손가락의 끝점을 추출할 수 있다.In addition, the edge detector 161 may extract the end point of the finger based on the depth information detected by the 3D depth sensor 140.

터치 지점 식별부(162)는 터치 동작 영상에 표시된 마커를 통해 터치 동작이 발생한 지점의 위치를 식별할 수 있다. 즉, 사용자가 터치 스크린(110)을 터치하면 터치 지점 표시부(150)에 의해 터치 지점을 표시하는 마커가 생성되어 터치 스크린(110)에 표시되고, 이때 터치 지점 식별부(162)는 표시된 마커를 통해 터치가 발생한 지점의 위치를 식별할 수 있다.The touch point identification unit 162 may identify the position of the point where the touch operation occurred through the marker displayed on the touch operation image. That is, when a user touches the touch screen 110, a marker indicating a touch point is generated by the touch point display unit 150 and displayed on the touch screen 110, and the touch point identification unit 162 displays the displayed marker. Through this, the location of the touch point can be identified.

손가락 식별부(163)는 손가락의 끝점과 터치 동작이 발생한 지점의 위치를 매칭시켜 터치 동작을 발생시킨 손가락을 식별한다. 즉, 에지 검출부(161)에 의해 검출된 손가락의 끝점을 통해 손가락 식별 코드를 알 수 있으며, 손가락의 끝점과 터치 발생 지점이 일치됐을 경우 해당 손가락이 터치 동작을 수행하였음을 인식할 수 있다.The finger identification unit 163 matches the position of the end point of the finger with the position of the point where the touch action occurs to identify the finger that caused the touch action. That is, the finger identification code may be known through the end point of the finger detected by the edge detector 161. When the end point of the finger and the touch generation point coincide with each other, the finger may recognize that the finger performed the touch operation.

도 5는 본 발명의 일 실시예에 따른 포인트 가이드의 조합을 나타낸 그래픽 사용자 인터페이스의 일례이다.5 is an example of a graphical user interface illustrating a combination of point guides in accordance with one embodiment of the present invention.

이때, 본 발명의 일 실시예에서는, 입력 수단 및 그래픽 사용자 인터페이스 구성이 오른손을 기준인 예로서 설명하도록 한다. At this time, in an embodiment of the present invention, the input means and the graphical user interface configuration will be described as an example based on the right hand.

그래픽 사용자 인터페이스(900)는 엄지, 검지, 중지, 약지 및 소지에 해당하는 각각의 단일 포인트(911, 912, 913, 914, 915)를 기본으로 각 포인트를 조합하여 구성된다. 즉, 손가락 하나에 해당하는 단일 포인트(911, 912, 913, 914, 915)를 기준으로 손가락을 두 개 이상 동시에 터치하여 입력된 값, 즉 포인트를 둘 이상 조합하여 생성된 식별 코드를 그래픽 사용자 인터페이스(900)에 나타낼 수 있다. 이때, 둘 이상의 포인트 조합을 가이드하는 연결선(920, 930, 940, 950)이 포함되며, 연결선의 길이는 포인트 간격에 비례하여 증가될 수 있다.The graphical user interface 900 is configured by combining each point based on each single point 911, 912, 913, 914, 915 corresponding to the thumb, index finger, middle finger, ring finger, and possession. That is, a graphic user interface includes an identification code generated by combining two or more points, i.e., two or more points, by simultaneously touching two or more fingers based on a single point 911, 912, 913, 914, and 915 corresponding to one finger. And (900). In this case, connection lines 920, 930, 940, and 950 may be included to guide the combination of two or more points, and the length of the connection line may be increased in proportion to the point interval.

예를 들어, 각각의 포인트와 둘 이상의 포인트의 조합을 나타낸 그래픽 사용자 인터페이스는 다음과 같이 설명될 수 있다.For example, a graphical user interface showing each point and a combination of two or more points can be described as follows.

먼저, 도 5에 도시된 바와 같이, 각각 다섯 손가락의 포인트를 나타내는 그래픽 사용자 인터페이스(900)는 다음과 같다. 엄지 손가락 하나의 입력을 나타내는 인터페이스로 엄지 식별 코드 {

Figure 112013022314381-pat00001
}이 표기된 포인트를 엄지 포인트(911)로 나타낼 수 있다. 또한, 검지 손가락 하나의 입력을 나타내는 인터페이스로 검지 식별 코드 {
Figure 112013022314381-pat00002
}가 표기된 포인트를 검지 포인트(912)로 나타낼 수 있다. 더불어, 각각 중지, 약지, 소지에 해당하는 식별 코드 {
Figure 112013022314381-pat00003
}, {
Figure 112013022314381-pat00004
}, {
Figure 112013022314381-pat00005
}를 표기한 포인트를 중지 포인트(913), 약지 포인트(914), 소지 포인트(915)로 나타낼 수 있다.First, as shown in FIG. 5, the graphical user interface 900 representing the points of five fingers, respectively, is as follows. An interface representing the input of a single thumb. Thumb identification code {
Figure 112013022314381-pat00001
} May be represented as a thumb point 911. In addition, an interface representing the input of one index finger is provided.
Figure 112013022314381-pat00002
} May be represented as a detection point 912. In addition, the identification code {
Figure 112013022314381-pat00003
}, {
Figure 112013022314381-pat00004
}, {
Figure 112013022314381-pat00005
} May be represented as a stop point 913, a ring finger point 914, and a possession point 915.

다음으로, 둘 이상의 포인트의 조합은 다음과 같이 설명될 수 있다.Next, the combination of two or more points can be described as follows.

먼저, 약지와 소지를 동시에 입력하는 경우, 약지 포인트(914)와 소지 포인트(915)가 1간격 연결선(920)으로 연결되어 두 포인트가 동시에 입력됨을 나타낼 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00006
}로 표기될 수 있다.First, when the ring finger and the possession is input at the same time, the ring finger point 914 and the possession point 915 may be connected by one connecting line 920 to indicate that the two points are input at the same time. The identification code of the entered point is {
Figure 112013022314381-pat00006
} May be indicated.

다음으로, 중지와 소지를 동시에 입력하는 경우, 중지 포인트(913)와 소지 포인트(915)는 2간격 연결선(930)으로 연결될 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00007
} 로 표기될 수 있다. 이때, 중지 포인트(913)과 소지 포인트(915)의 간격이 약지 포인트(914)와의 간격보다 길기 때문에 2간격 연결선(930)의 길이가 1간격 연결선(920)의 길이보다 길게 나타났음을 확인할 수 있다. 사용자는 연결선의 길이를 통해 직관적으로 포인트 사이의 간격을 파악할 수 있다.Next, in the case of simultaneously inputting the stop and the possession, the stop point 913 and the possession point 915 may be connected by a two-gap connection line 930. The identification code of the entered point is {
Figure 112013022314381-pat00007
} May be indicated. At this time, since the interval between the stop point 913 and the possession point 915 is longer than the interval between the ring finger point 914, it can be seen that the length of the two interval connecting line 930 appeared longer than the length of the one interval connecting line 920. . The length of the connection line allows the user to intuitively determine the distance between the points.

한편, 중지와 소지 입력과 함께 약지를 추가로 동시 입력하는 경우, 중지 포인트(913)와 소지 포인트(915)가 연결된 2간격 연결선(930) 위에 약지 포인트(914)가 추가로 표기되어 나타낼 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00008
,
Figure 112013022314381-pat00009
}로 표기될 수 있다.Meanwhile, in the case of additionally inputting the ring finger together with the middle finger and the branch input, the ring finger point 914 may be additionally displayed on the two-interval connecting line 930 to which the stop point 913 and the point 915 are connected. . The identification code of the entered point is {
Figure 112013022314381-pat00008
,
Figure 112013022314381-pat00009
} May be indicated.

다음으로, 검지와 소지를 동시에 입력하는 경우, 검지 포인트(912)와 소지 포인트(915)는 3간격 연결선(940)으로 연결될 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00010
} 로 표기될 수 있다.Next, when the detection and the possession at the same time input, the detection point 912 and the possession point 915 may be connected by three intervals connecting line 940. The identification code of the entered point is {
Figure 112013022314381-pat00010
} May be indicated.

한편, 검지와 소지 입력과 함께 중지 또는 약지를 각각 추가로 동시 입력하는 경우, 검지 포인트(912)와 소지 포인트(915)가 연결된 3간격 연결선(940) 위에 중지 포인트(913) 또는 약지 포인트(914)가 각각 추가로 표기되어 나타낼 수 있다. 입력된 포인트의 식별 코드는 각각 {

Figure 112013022314381-pat00011
,
Figure 112013022314381-pat00012
}, {
Figure 112013022314381-pat00013
,
Figure 112013022314381-pat00014
}이다.On the other hand, in the case of additionally inputting the middle finger or ring finger together with the index finger and possession input, respectively, the stopping point 913 or ring finger point 914 on the three-interval connecting line 940 to which the detecting point 912 and the holding point 915 are connected. ) May be additionally represented. The identification codes of the entered points are each {
Figure 112013022314381-pat00011
,
Figure 112013022314381-pat00012
}, {
Figure 112013022314381-pat00013
,
Figure 112013022314381-pat00014
}to be.

또한, 검지와 소지 입력과 함께 중지와 약지를 추가로 동시 입력하는 경우, 3간격 연결선(940) 위에 표기된 중지 포인트(913) 및 약지 포인트(914)가 연결되는 1간격 연결선(920)을 표기하여 나타낼 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00015
,
Figure 112013022314381-pat00016
}이며, 연결선 안에 두 포인트의 연결을 의미하는 {
Figure 112013022314381-pat00017
}가 표기될 수 있다.In addition, when the middle finger and the ring finger further input simultaneously with the index finger and the possession input, the one-point connecting line 920 to which the stop point 913 and the ring finger point 914 shown on the three-interval connecting line 940 are connected is indicated. Can be represented. The identification code of the entered point is {
Figure 112013022314381-pat00015
,
Figure 112013022314381-pat00016
}, Which means the connection of two points within a connecting line {
Figure 112013022314381-pat00017
} May be indicated.

다음으로, 엄지와 소지를 동시에 입력하는 경우, 엄지 포인트(911)와 소지 포인트(915)는 4간격 연결선(950)으로 연결될 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00018
}이며, 연결선 안에 두 포인트의 연결을 의미하는 {
Figure 112013022314381-pat00019
}가 표기될 수 있다.Next, when the thumb and the base at the same time input, the thumb point 911 and the possession point 915 may be connected by the four interval connecting line 950. The identification code of the entered point is {
Figure 112013022314381-pat00018
}, Which means the connection of two points within a connecting line {
Figure 112013022314381-pat00019
} May be indicated.

한편, 엄지와 소지 입력과 함께 검지, 중지 또는 약지 중 하나를 각각 추가로 동시 입력하는 경우, 엄지 포인트(911)와 소지 포인트(915)가 연결된 4간격 연결선(950) 위에 검지 포인트(912), 중지 포인트(913) 또는 약지 포인트(914)를 각각 추가로 표기하여 나타낼 수 있다. 입력된 포인트의 식별 코드는 각각 {

Figure 112013022314381-pat00020
,
Figure 112013022314381-pat00021
}, {
Figure 112013022314381-pat00022
,
Figure 112013022314381-pat00023
}, {
Figure 112013022314381-pat00024
,
Figure 112013022314381-pat00025
}이다.On the other hand, when one or more of the index finger, middle finger or ring finger input simultaneously with the thumb and the finger input, respectively, the index point 912 on the four interval connecting line 950 connected to the thumb point 911 and the finger point 915, Each of the break point 913 or the ring finger point 914 may be additionally represented. The identification codes of the entered points are each {
Figure 112013022314381-pat00020
,
Figure 112013022314381-pat00021
}, {
Figure 112013022314381-pat00022
,
Figure 112013022314381-pat00023
}, {
Figure 112013022314381-pat00024
,
Figure 112013022314381-pat00025
}to be.

또한, 엄지와 소지 입력과 함께 검지와 중지 또는 중지와 약지를 추가로 동시 입력하는 경우, 4간격 연결선(950) 위에 표기된 검지 포인트(912)와 중지 포인트(913) 또는 중지 포인트(913)와 약지 포인트(914)가 각각 1간격 연결선(920)으로 연결될 수 있다. 입력된 포인트의 식별 코드는 각각 {

Figure 112013022314381-pat00026
,
Figure 112013022314381-pat00027
}, {
Figure 112013022314381-pat00028
,
Figure 112013022314381-pat00029
}이며, 각각의 연결선 안에 두 포인트의 연결을 의미하는 {
Figure 112013022314381-pat00030
}, {
Figure 112013022314381-pat00031
}가 각각 표기될 수 있다.Also, when the index finger and the middle finger or middle finger and the middle finger are additionally input together with the thumb and the finger input, the index finger 912 and the middle point 913 or the middle finger 913 and the middle finger which are marked on the four-interval connecting line 950 are also input. The points 914 may be connected to the one-interval connecting line 920, respectively. The identification codes of the entered points are each {
Figure 112013022314381-pat00026
,
Figure 112013022314381-pat00027
}, {
Figure 112013022314381-pat00028
,
Figure 112013022314381-pat00029
}, Which means connecting two points within each connecting line {
Figure 112013022314381-pat00030
}, {
Figure 112013022314381-pat00031
} May be written respectively.

또한, 엄지와 소지 입력과 함께 검지와 약지를 추가로 동시 입력하는 경우, 엄지 포인트(911)와 소지 포인트(915)가 연결되는 4간격 연결선(950) 위에 표기된 검지 포인트(912)와 중지 포인트(913) 또는 중지 포인트(913)와 약지 포인트(914)가 각각 연결된 1간격 연결선(920) 위에 2간격 연결선(930)을 표기하여 나타낼 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00032
,
Figure 112013022314381-pat00033
}이며, 연결선 안에 두 포인트의 연결을 의미하는 {
Figure 112013022314381-pat00034
}가 표기될 수 있다.In addition, when the index finger and the ring finger is additionally input simultaneously with the thumb and the finger input, the index point 912 and the stop point marked on the four interval connecting line 950 to which the thumb point 911 and the finger point 915 are connected 913 or the stopping point 913 and the ring finger point 914 may be indicated by marking the two interval connecting line 930 on the one-interval connecting line 920 respectively. The identification code of the entered point is {
Figure 112013022314381-pat00032
,
Figure 112013022314381-pat00033
}, Which means the connection of two points within a connecting line {
Figure 112013022314381-pat00034
} May be indicated.

또한, 다섯 손가락을 동시에 입력하는 경우, 엄지 포인트(911)와 소지 포인트(915)가 연결된 4간격 연결선(950) 위에 검지 포인트(912), 중지 포인트(913) 및 약지 포인트(914)가 표기되고, 4간격 연결선(950) 위의 검지 포인트(912)와 중지 포인트(913) 또는 중지 포인트(913)와 약지 포인트(914)가 각각 1간격 연결선(920)으로 연결된 연결선 위에 검지 포인트(912)와 약지 포인트(914)의 연결을 나타내는 2간격 연결선(930)이 표기된 연결선 위에 중지 포인트(913)를 표기하여 나타낼 수 있다. 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00035
,
Figure 112013022314381-pat00036
,
Figure 112013022314381-pat00037
}이다.In addition, when five fingers are input at the same time, the detection point 912, the stop point 913, and the ring finger point 914 are displayed on the four interval connecting line 950 to which the thumb point 911 and the holding point 915 are connected. The detection point 912 and the stop point 912 and the stop point 913 or the stop point 913 and the ring finger point 914 on the four-interval connection line 950 are connected to the detection point 912 on the connection line connected to the one-interval connection line 920, respectively. The two-point connecting line 930 representing the connection of the ring finger point 914 may be indicated by marking the stop point 913 on the marked connecting line. The identification code of the entered point is {
Figure 112013022314381-pat00035
,
Figure 112013022314381-pat00036
,
Figure 112013022314381-pat00037
}to be.

도 6은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스에서 사용자에 의해 입력된 조합 포인트를 강조 표시한 일례이다.6 illustrates an example of highlighting a combination point input by a user in a graphical user interface according to an embodiment of the present invention.

그래픽 사용자 인터페이스(900)는 사용자가 입력 처리를 수행한 손가락에 해당하는 포인트가 강조 표시될 수 있다. In the graphic user interface 900, a point corresponding to a finger on which the user has performed input processing may be highlighted.

예를 들어, 네 개의 포인트 조합으로 입력된 조합 포인트(P921)의 경우 두 포인트를 연결하는 연결선 안쪽이 강조색상으로 표시될 수 있다. 도 6의 (a)의 경우, 강조된 조합 포인트(P921)가 엄지 포인트(911)와 소지 포인트(915)를 연결하는 4간격 연결선(950) 위에 중지 포인트(913)와 약지 포인트(914)를 연결하는 1간격 연결선(920)임을 확인할 수 있다. 즉, 사용자에 의해 입력된 손가락은 엄지, 중지, 약지 및 소지이며 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00038
,
Figure 112013022314381-pat00039
}임을 확인할 수 있다.For example, in the case of the combination point P921 inputted as a combination of four points, the inside of the connection line connecting the two points may be displayed in an accent color. In the case of FIG. 6A, the highlighted combination point P921 connects the stop point 913 and the ring finger point 914 on the four-space connecting line 950 connecting the thumb point 911 and the possession point 915. It can be confirmed that the interval 1 connecting line 920. That is, the fingers entered by the user are the thumb, middle finger, ring finger, and possession, and the identification code of the input point is {
Figure 112013022314381-pat00038
,
Figure 112013022314381-pat00039
} Can be confirmed.

또 다른 예를 들어, 세 개의 포인트 조합으로 입력된 조합 포인트(P916)의 경우 두 포인트를 연결하는 연결선 위 포인트가 강조색상으로 표시될 수 있다. 도 6의 (b)의 경우, 강조된 조합 포인트(P916)가 엄지 포인트(911)와 약지 포인트(914)를 연결하는 3간격 연결선(940) 위에 검지 포인트(912)임을 확인할 수 있다. 즉, 사용자에 의해 입력된 손가락은 엄지, 검지 및 약지이며 입력된 포인트의 식별 코드는 {

Figure 112013022314381-pat00040
,
Figure 112013022314381-pat00041
}임을 확인할 수 있다.For another example, in the case of the combination point P916 input as a combination of three points, the points on the connection line connecting the two points may be displayed in the highlight color. In the case of FIG. 6B, it can be seen that the highlighted combination point P916 is the detection point 912 on the three interval connecting line 940 connecting the thumb point 911 and the ring finger point 914. That is, the fingers entered by the user are the thumb, the index finger and the ring finger, and the identification code of the input point is {
Figure 112013022314381-pat00040
,
Figure 112013022314381-pat00041
} Can be confirmed.

도 7은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스와 문자 정보의 매칭을 설명하기 위한 일례이다.7 is an example for explaining matching of a graphic user interface and text information according to an embodiment of the present invention.

문자 정보 저장부(320, 190)는 문자 정보를 저장하고 있으며, 포인트 및 각 포인트의 조합에 따라 매칭되는 문자 및 배치는 사용자에 의해 설정될 수 있다. 또한, 설정된 문자 정보는 그래픽 사용자 인터페이스(900)를 이용하여 해당 포인트 및 둘 이상의 포인트의 조합을 나타낼 수 있으며, 사용자는 문자 정보에 매칭되는 포인트 및 둘 이상의 포인트의 조합을 입력함으로써 해당 손가락의 식별 코드가 입력될 수 있도록 할 수 있다.The text information storage units 320 and 190 store text information, and a matching character and arrangement according to a point and a combination of each point may be set by a user. In addition, the set character information may indicate a combination of a corresponding point and two or more points using the graphic user interface 900, and the user inputs a point matching the character information and a combination of two or more points to identify the identification code of the corresponding finger. Can be entered.

도 7의 (a)에 도시된 바와 같이, 손가락 식별 코드마다 매칭되는 알파벳이 설정될 수 있다. 즉, 사용자는 각각의 포인트 및 둘 이상의 포인트의 조합에 매칭되는 알파벳을 설정할 수 있다. As shown in FIG. 7A, a matching alphabet may be set for each finger identification code. That is, the user may set an alphabet matching each point and a combination of two or more points.

손가락 식별 코드에 매칭되는 문자는 키보드를 눌러서 화면에 나타낼 수 있는 알파벳, 한글, 한자, 숫자, 구두점, 히라가나 등으로 사용자에 의해 설정될 수 있으며, 각 손가락 식별 코드에 매칭되는 문자의 배치 또한 사용자에 의해 설정될 수 있다.Characters matching the finger identification code may be set by the user with alphabets, Hangul, Chinese characters, numbers, punctuation, hiragana, etc. that can be displayed on the screen by pressing the keyboard. Can be set.

예를 들면, 도 7의 (a)에 도시된 바와 같이, 엄지, 검지, 중지, 약지 및 소지 포인트에 해당하는 손가락 식별 코드는 {

Figure 112013022314381-pat00042
}, {
Figure 112013022314381-pat00043
}, {
Figure 112013022314381-pat00044
}, {
Figure 112013022314381-pat00045
}, {
Figure 112013022314381-pat00046
}이며, 각각의 포인트에 매칭되는 문자는 알파벳 ‘A’, ‘E’, ‘I’, ‘O’, ‘U’로 설정되어 있음을 확인할 수 있다.For example, as shown in (a) of FIG. 7, the finger identification code corresponding to the thumb, index finger, middle finger, ring finger, and possession point is {
Figure 112013022314381-pat00042
}, {
Figure 112013022314381-pat00043
}, {
Figure 112013022314381-pat00044
}, {
Figure 112013022314381-pat00045
}, {
Figure 112013022314381-pat00046
}, And the letter matching each point is set to the alphabet 'A', 'E', 'I', 'O', 'U'.

한편, 도 7의 (b)는 손가락 식별 코드에 매칭되는 알파벳을 그래픽 사용자 인터페이스(900)로 나타낸 일례이다. 즉, 각각의 포인트에 매칭되는 알파벳을 설정하여 포인트(911, 912, 913, 914, 915)에 나타낼 수 있으며, 둘 이상의 포인트 조합은 연결선(920, 930, 940, 950)으로 연결하여 알파벳을 설정 및 표시함으로써 그래픽 사용자 인터페이스(900)에 나타낼 수 있다.On the other hand, Figure 7 (b) is an example showing the alphabet matching the finger identification code to the graphical user interface 900. That is, an alphabet matching each point may be set and displayed at the points 911, 912, 913, 914, and 915, and two or more point combinations may be connected to the connection lines 920, 930, 940, and 950 to set the alphabet. And by displaying on the graphical user interface 900.

예를 들어, 도 7의 (b)에 도시한 바와 같이, 엄지 포인트(911)는 알파벳 ‘A’로, 검지 포인트(912)는 알파벳 ‘E’로, 중지 포인트(913)는 알파벳 ‘I’로, 약지 포인트(914)는 알파벳 ‘O’로, 소지 포인트(915)는 알파벳 ‘U’로 설정하여 나타냈음을 확인할 수 있다. 또한, 둘 이상의 포인트 조합의 연결선, 또는 연결선 위의 포인트에 알파벳이 표시되어 있음을 확인할 수 있다. 이때, 알파벳 외에도 ‘enter’, ‘space’, ‘reserved’ 등 문자 입력을 위한 부가적인 기능키들을 함께 설정할 수 있다.For example, as shown in FIG. 7B, the thumb point 911 is an alphabet 'A', the index point 912 is an alphabet 'E', and the stop point 913 is an alphabet 'I'. Thus, it can be confirmed that the ring finger point 914 is set to the letter 'O' and the holding point 915 is set to the letter 'U'. In addition, it may be confirmed that an alphabet is displayed at a connection line of two or more point combinations or a point on the connection line. In this case, in addition to the alphabet, additional function keys for inputting characters such as 'enter', 'space', and 'reserved' may be set.

도 8은 본 발명의 다른 실시예에 따른 문자 입력 장치를 이용한 문자 입력 방법을 설명하기 위한 일례이다.8 is an example for describing a character input method using a character input apparatus according to another embodiment of the present invention.

도 8의 (a)에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 문자 입력 장치(100)는 터치 스크린(110), 카메라(120), 미러(130)를 포함할 수 있다. 먼저, 문자 입력을 위해서 문자 입력 장치(100)의 터치 스크린(110) 위에 사용자의 손이 위치한다. 이때, 손에 의하여 반사된 빛은 카메라(120)의 촬영 각도에서 벗어나므로 미러(130)를 추가 설치하여 카메라(120)의 촬영 각도를 조정할 수 있다. 즉, 카메라(120)는 터치 스크린(110)에 대하여 수직한 방향으로 촬영방향이 설정된 상태에서 미러(130)는 터치 스크린(110)과 소정의 각도를 이루면서 카메라(120)와 교차하도록 결합될 수 있다. 도 8의 (a)의 하드웨어 구성을 통해 얻어진 영상은 도 8의 (b)에 도시된 바와 같다.As shown in FIG. 8A, the character input apparatus 100 according to another embodiment of the present invention may include a touch screen 110, a camera 120, and a mirror 130. First, a user's hand is positioned on the touch screen 110 of the text input device 100 for text input. In this case, since the light reflected by the hand deviates from the photographing angle of the camera 120, a mirror 130 may be additionally installed to adjust the photographing angle of the camera 120. That is, the camera 120 may be coupled to cross the camera 120 at a predetermined angle with the touch screen 110 while the photographing direction is set in a direction perpendicular to the touch screen 110. have. An image obtained through the hardware configuration of FIG. 8A is as shown in FIG. 8B.

도 8의 (b)에 도시된 바와 같이, 카메라(120)는 터치 스크린(110)을 터치하는 사용자 손의 정면을 촬영할 수 있다. 카메라(120)의 촬영에 의해 획득한 영상은 입력 수단 식별부(160)를 통해 터치 동작을 수행하는 손가락의 종류를 식별하는 데이터로 사용될 수 있고, 정보 처리 장치(300)의 디스플레이를 통해 사용자의 입력 확인 용도로도 사용될 수 있다.As shown in FIG. 8B, the camera 120 may photograph the front of a user's hand touching the touch screen 110. The image acquired by capturing the camera 120 may be used as data for identifying the type of a finger performing a touch operation through the input means identification unit 160, and may be used as a data of the user through the display of the information processing device 300. Can also be used for input verification.

다음으로, 도 8의 (c)에 도시된 바와 같이, 촬영된 터치 동작 영상에서 손가락의 끝점과 터치 동작이 발생한 지점의 위치를 나타내는 마커(723, 724)를 통해 입력을 수행한 손가락을 식별할 수 있다. 즉, 엄지 손가락에 해당하는 엄지 끝점(711), 검지 손가락에 해당하는 검지 끝점(712), 중지 손가락에 해당하는 중지 끝점(713), 약지 손가락에 해당하는 약지 끝점(714) 및 소지 손가락에 해당하는 소지 끝점(715)이 추출될 수 있다. 이는 일반적으로 알려진 에지검출(edge detection)알고리즘에 기초하여 추출될 수 있으며, 구체적인 알고리즘에 대한 설명은 생략한다.Next, as illustrated in (c) of FIG. 8, the finger that has performed the input may be identified through the markers 723 and 724 indicating the positions of the end points of the fingers and the points at which the touch action occurs in the captured touch motion image. Can be. That is, the thumb end point 711 corresponding to the thumb, the indexing end point 712 corresponding to the index finger, the stopping end point 713 corresponding to the middle finger, the ring finger end point 714 corresponding to the ring finger, and the holding finger The possession end point 715 can be extracted. This can be extracted based on commonly known edge detection algorithms, and a detailed description of the algorithm is omitted.

또한, 도 8의 (d)에 도시된 바와 같이, 손가락이 터치 동작을 수행하면 터치 지점 표시부(150)에 의해 터치 스크린(110)상의 터치가 발생된 지점에 해당 지점을 강조 표시하는 마커(723,724)가 출력되어 표시될 수 있다. 이때, 출력된 마커(723,724)와 터치를 수행한 손가락의 끝점이 미리 설정된 거리내에 위치하는지 여부를 판단하여 터치 동작을 발생시킨 손가락을 식별할 수 있다.In addition, as illustrated in FIG. 8D, markers 723 and 724 highlighting a corresponding point at a point where a touch on the touch screen 110 is generated by the touch point display unit 150 when the finger performs a touch operation. ) May be output and displayed. In this case, it may be determined whether the output markers 723 and 724 and the end points of the touched finger are located within a preset distance to identify the finger that caused the touch operation.

예를 들면, 중지와 약지를 동시에 터치할 경우 터치 스크린(110)에 중지 터치 입력 마커(723)와 약지 터치 입력 마커(724)가 표시된다. 즉, 도 8의 (d)와 같이, 각 마커(723, 724)와 가장 인접한 끝점(713, 714)의 손가락이 각각 중지와 약지이므로, 해당 손가락에 의해서 터치 동작이 일어난 것으로 판단할 수 있다.For example, when the middle finger and the ring finger are simultaneously touched, the middle touch input marker 723 and the ring finger touch input marker 724 are displayed on the touch screen 110. That is, as shown in (d) of FIG. 8, since the fingers of the end points 713 and 714 that are closest to the markers 723 and 724 are the middle finger and the ring finger, respectively, it may be determined that the touch operation is performed by the corresponding finger.

또한, 터치 스크린을 구비한 문자 입력 장치(100)는 터치 스크린을 통해 입력된 터치 입력 제스처에 매칭되는 문자 정보를 입력할 수 있다. 즉, 드래그 방향, 순간 터치 횟수 등과 같은 제스처 입력에 매칭되는 문자 정보를 터치 스크린을 통해 입력하여 매칭되는 문자 정보를 입력할 수 있다. 예를 들면, 알파벳 소문자 ‘a’의 입력을 위해 ‘a’에 매칭되는 손가락 조합을 터치 스크린에 터치시키면서 위쪽으로 드래그를 한 후 터치 오프를 할 경우, 알파벳 대문자 ‘A’가 입력될 수 있다. In addition, the text input apparatus 100 having a touch screen may input text information matching the touch input gesture input through the touch screen. That is, the character information matched with the gesture input such as the drag direction and the number of instant touches may be input through the touch screen to input the matched character information. For example, when the user drags upward while touching a finger combination matching 'a' on the touch screen to input a lowercase alphabet 'a', the uppercase alphabet 'A' may be input.

도 9는 본 발명의 다른 실시예에 따른 문자 입력 장치에서 3D 깊이 센서를 이용한 손가락 끝점 추출 방법을 설명하기 위한 일례이다.FIG. 9 is an example for explaining a method of extracting a finger point using a 3D depth sensor in a text input device according to another embodiment of the present invention.

도 9의 (a)에 도시된 바와 같이, 문자 입력 장치(100)는 3D 깊이 센서(140)를 더 포함할 수 있다. 3D 깊이 센서(140)는 감지된 깊이 정보에 기초하여 센서 위치에서 지근거리내에 불연속한 다섯 개의 점을 찾아 다섯 손가락의 끝점으로 추출할 수 있다. 추출한 다섯 개의 손가락 끝점은 입력 수단 식별부(160)에 의해 터치 동작을 수행한 손가락의 종류를 식별하는 데이터로 사용될 수 있다.As shown in FIG. 9A, the character input apparatus 100 may further include a 3D depth sensor 140. The 3D depth sensor 140 may find five discontinuous points within a close distance from the sensor position based on the detected depth information and extract the five points as the end points of five fingers. The extracted five finger endpoints may be used as data for identifying the type of the finger that has performed the touch operation by the input means identification unit 160.

다음으로, 도 9의 (b)에 도시된 바와 같이, 터치 스크린(110)상 위에 사용자의 손이 위치되고, 사용자의 손은 정면으로 촬영되어 입력 수단 식별부(160)에서 손가락의 종류를 식별하는 데이터로 사용될 수 있고, 정보 처리 장치(300)의 디스플레이를 통해 사용자의 입력 확인 용도로도 사용될 수 있다.Next, as shown in FIG. 9B, the user's hand is positioned on the touch screen 110, and the user's hand is photographed in front to identify the type of finger in the input means identification unit 160. The data may be used as data, and may also be used for checking a user's input through the display of the information processing device 300.

다음으로, 도 9의 (c)에 도시된 바와 같이, 다섯 손가락 각각의 깊이 정보에 따른 끝점(711, 712, 713, 714, 715)이 추출될 수 있다. Next, as shown in FIG. 9C, end points 711, 712, 713, 714, and 715 according to depth information of each of the five fingers may be extracted.

마지막으로, 도 9의 (d)에 도시된 바와 같이, 터치 동작을 수행한 손가락을 강조 표시하는 마커(723, 724)가 터치 스크린(110)상에 표시될 수 있다. 출력된 마커(723, 724)와 터치를 수행한 손가락의 끝점이 미리 설정된 거리내에 위치하는지 여부를 판단하여 터치 동작을 발생시킨 손가락을 식별할 수 있다.Finally, as illustrated in FIG. 9D, markers 723 and 724 for highlighting a finger performing a touch operation may be displayed on the touch screen 110. By determining whether the output markers 723 and 724 and the end points of the touched finger are located within a preset distance, the finger that has caused the touch operation may be identified.

도 10은 본 발명의 일 실시예에 따른 정보 처리 장치에서 3D 깊이 센서를 이용한 손가락 끝점 추출 방법을 설명하기 위한 일례이다.FIG. 10 is an example for explaining a method of extracting a finger point using a 3D depth sensor in an information processing apparatus according to an embodiment of the present invention.

도 10의 (a)에 도시된 바와 같이, 정보 처리 장치(300)에서 3D 깊이 센서(361)를 이용하여 손가락 끝점을 추출할 수 있다. 예를 들어, 정보 처리 장치(300)와 연결된 문자 입력 인터페이스 장치(360) 중 3D 깊이 센서(361)를 이용하여 손가락 깊이 정보를 획득할 수 있다.As illustrated in FIG. 10A, the finger processing point may be extracted using the 3D depth sensor 361 in the information processing apparatus 300. For example, the finger depth information may be obtained using the 3D depth sensor 361 of the character input interface device 360 connected to the information processing apparatus 300.

즉, 도 10의 (b)에 도시된 바와 같이, 평면(111) 위에 위치한 손의 정면으로부터 서로 다른 깊이 정보를 가진 다섯 개의 손가락 끝점(711, 712, 713, 714, 715)이 추출될 수 있다. 손가락이 평면(111)을 터치하면 터치를 수행한 손가락의 끝점으로부터 평면(111)쪽으로의 깊이 정보가 불연속하거나 급격한 변화가 없을 경우 손가락 끝과 평면의 깊이 정보가 비슷함을 감지하여 해당 손가락이 터치 동작을 수행한 것으로 판단할 수 있다.That is, as illustrated in FIG. 10B, five fingertips 711, 712, 713, 714, and 715 having different depth information may be extracted from the front of the hand located on the plane 111. . When the finger touches the plane 111, if the depth information from the end of the touched finger toward the plane 111 is not discontinuous or there is no sudden change, the finger detects that the depth information of the fingertip and the plane are similar and touches the corresponding finger. It can be determined that the operation has been performed.

예를 들어, 사용자가 엄지와 약지를 터치하였다면, 엄지 끝점(711) 및 약지 끝점(715)으로부터 평면의 깊이 정보(731, 735)가 급격한 차이를 보이지 않으므로 엄지와 약지를 터치한 것으로 판단할 수 있다. 따라서, 평면(111)은 터치를 감지할 수 있는 전자 장치가 아닌 일반적인 평면이라 하더라도 3D 깊이 센서(361)를 통해 터치 동작을 수행한 손가락을 감지할 수 있다.For example, if the user touches the thumb and the ring finger, since the depth information 731 and 735 of the plane does not show a sharp difference from the thumb end point 711 and the ring finger end point 715, the user may determine that the thumb and the ring finger are touched. have. Therefore, even if the plane 111 is a general plane, not an electronic device capable of sensing a touch, the plane 111 may detect a finger that has performed a touch operation through the 3D depth sensor 361.

도 11은 본 발명의 일 실시예에 따른 정보 처리 장치에서 물리적 버튼을 이용한 입력 방법을 설명하기 위한 일례이다.11 is an example for describing an input method using a physical button in an information processing apparatus according to an embodiment of the present invention.

정보 처리 장치(300)의 문자 입력 인터페이스 장치(360)는 물리적 버튼(210)을 포함할 수 있다. 물리적 버튼(210)은 다섯 손가락 각각의 입력값을 입력할 수 있는 구별된 다섯 개의 버튼으로 구성될 수 있다. 각각의 버튼 입력을 통해 다섯 손가락의 개별 입력을 구분할 수 있으며, 한 개 또는 두 개 이상의 버튼을 조합하여 입력함으로써 입력된 조합에 대응하는 문자를 구성할 수 있다.The text input interface device 360 of the information processing device 300 may include a physical button 210. The physical button 210 may be composed of five distinct buttons for inputting an input value of each of five fingers. Each button input may distinguish five-digit individual inputs, and a character corresponding to the input combination may be configured by inputting one or two or more buttons in combination.

예를 들면, 버튼 하나당 하나의 문자에 대응하는 일반적인 키보드가 아닌 손가락 개수와 동일한 다섯 개의 버튼을 조합 및 입력함으로써 문자를 입력할 수 있는 코드 키보드 방식과 같다.For example, it is a code keyboard method that can input characters by combining and inputting five buttons equal to the number of fingers rather than a general keyboard corresponding to one character per button.

도 12는 본 발명의 일 실시예에 따른 문자 입력 장치와 정보 처리 장치를 통한 문자 입력 시스템의 구성을 설명하기 위한 일례이다.12 is an example for explaining the configuration of a character input system through a character input apparatus and an information processing apparatus according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 정보 처리 장치(300)에 입력할 문자를 문자 입력 장치(100)를 통해 입력할 수 있다. 문자 입력 장치(100)로부터 전송된 문자 정보는 정보 처리 장치(300)에 의해 문자 정보 표시(351) 및 그래픽 사용자 인터페이스(900)로 나타날 수 있다.As illustrated in FIG. 12, a character to be input to the information processing apparatus 300 may be input through the character input apparatus 100. The text information transmitted from the text input apparatus 100 may be displayed by the information processing apparatus 300 on the text information display 351 and the graphic user interface 900.

또한, 정보 처리 장치(300)는 문자 입력 인터페이스 장치(360)를 통해 손가락 입력을 받고 정보 처리 장치(300)내 처리부를 통해 문자를 표시할 수 있다.In addition, the information processing device 300 may receive a finger input through the text input interface device 360 and display a text through a processing unit in the information processing device 300.

도 13은 본 발명의 일 실시예에 따른 정보 처리 장치를 통한 문자 입력 방법을 설명하기 위한 순서도이다.FIG. 13 is a flowchart illustrating a text input method through an information processing device according to an embodiment of the present invention.

단계 (S310)에서는, 문자 입력 인터페이스 장치를 통해 손가락 데이터를 입력 받는다. 예를 들면, 3D 깊이 센서에 의해 손가락 데이터를 입력 받는 경우 손가락의 깊이 정보에 따라 다섯 개의 손가락 끝점을 추출하고, 입력 동작 수행에 의해 발생된 깊이 정보를 입력 받을 수 있다.In operation S310, finger data is input through the character input interface device. For example, when the finger data is input by the 3D depth sensor, five finger end points may be extracted according to the depth information of the finger, and the depth information generated by performing the input operation may be input.

단계 (S320)에서는, 상기 단계에서 입력 받은 데이터를 바탕으로 사용자가 입력 처리를 수행한 손가락의 종류를 식별할 수 있다.In operation S320, the type of the finger on which the user performs an input process may be identified based on the data received in the operation.

예를 들면, 3D 깊이 센서에 의해 입력 받은 깊이 정보의 변화 및 대응에 따라 어떤 손가락이 입력 동작을 수행하였는지 판단함으로써 입력 처리를 수행한 손가락의 종류를 식별할 수 있다.For example, it is possible to identify the type of the finger that has performed the input process by determining which finger has performed the input operation according to the change and the correspondence of the depth information received by the 3D depth sensor.

단계 (S330)에서는, 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 나타내는 그래픽 사용자 인터페이스로써 나타낼 수 있다. 이때, 사용자의 입력 처리에 따라 선택된 포인트 및 그 연결선과 그에 매칭된 문자 정보를 실시간으로 표시할 수 있다.In operation S330, the character information matched according to the type of the finger or the combination state of the finger may be represented as a graphic user interface representing the point guide. In this case, the selected point, its connection line, and text information matched thereto may be displayed in real time according to a user's input processing.

단계 (S340)에서는, 입력 수단을 식별하는 단계에서 식별된 손가락의 조합에 매칭되는 문자 정보를 검색할 수 있다.In operation S340, character information matching the combination of the fingers identified in the identifying of the input means may be retrieved.

예를 들어, 엄지와 검지를 동시에 터치할 경우, 기설정된 엄지 포인트와 검지 포인트의 조합에 해당하는 문자가 알파벳 ‘S’ 일 때 알파벳 ‘S’가 검색될 수 있다.For example, when the thumb and the index finger are simultaneously touched, the alphabet 'S' may be searched when the letter corresponding to the combination of the predetermined thumb point and the index point is the alphabet 'S'.

단계 (S350)에서는, 상기 단계에서 검색된 문자 정보를 디스플레이에 표시한다.In step S350, the character information retrieved in the above step is displayed on the display.

도 14는 본 발명의 일 실시예에 따른 문자 입력 장치를 통한 문자 입력 방법을 설명하기 위한 순서도이다.14 is a flowchart illustrating a text input method through the text input device according to an embodiment of the present invention.

단계 (S110)에서는, 카메라로부터 사용자의 터치 동작이 촬영된 촬영 데이터를 수신한다.In step S110, the camera receives received photographing data of a user's touch operation.

단계 (S120)에서는, 상기 단계에서 수신한 촬영 데이터를 기초로 하여 사용자의 손가락 끝점을 추출할 수 있다. 즉, 사용자의 터치 동작이 촬영된 데이터에서 사용자의 손가락의 끝에 해당하는 연속하는 다섯 개의 끝점을 추출할 수 있다.In operation S120, the fingertip point of the user may be extracted based on the photographing data received in the operation. That is, five consecutive end points corresponding to the end of the user's finger may be extracted from the data photographed by the user's touch operation.

단계 (S130)에서는, 상기 단계에서 수신한 촬영 데이터를 기초로 하여 사용자의 터치 동작에서 발생한 터치 스크린상의 지점에 표시된 마커를 통해 터치 동작이 발생한 지점의 위치를 식별할 수 있다.In operation S130, the position of the point where the touch operation occurs may be identified through a marker displayed on the point on the touch screen generated by the user's touch operation based on the photographing data received in the step.

단계 (S140)에서는, 상기 단계에서 추출한 손가락 끝점과 상기 단계에서 식별한 터치 지점 위치를 바탕으로 손가락을 식별할 수 있다. 즉, 다섯 개의 손가락 끝점 중 터치 지점을 나타내는 마커를 생성한 손가락을 식별하여 터치를 발생시킨 손가락을 식별해낼 수 있다.In step S140, the finger may be identified based on the finger endpoint extracted in the step and the touch point position identified in the step. That is, a finger that has generated a touch may be identified by identifying a finger that has generated a marker indicating a touch point among five fingertips.

단계 (S150)에서는, 상기 단계에서 식별한 손가락에 대응하는 포인트 및 둘 이상의 포인트 조합과 매칭되는 문자 정보를 검색할 수 있다.In operation S150, text information matching a point corresponding to the finger identified in the step and a combination of two or more points may be searched for.

예를 들어, 엄지와 검지를 동시에 터치할 경우, 기설정된 엄지 포인트와 검지 포인트의 조합에 해당하는 문자가 알파벳 ‘S’ 일 때 알파벳 ‘S’가 검색될 수 있다.For example, when the thumb and the index finger are simultaneously touched, the alphabet 'S' may be searched when the letter corresponding to the combination of the predetermined thumb point and the index point is the alphabet 'S'.

단계 (S160)에서는, 상기 단계에서 검색한 문자 정보를 출력한다.In step S160, the character information retrieved in the above step is output.

본 발명은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The invention can also be embodied in the form of a recording medium containing instructions executable by a computer, such as a program module executed by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

100: 문자 입력 장치 110: 터치 스크린
120: 카메라 130: 미러
140: 3D 깊이 센서 150: 터치 지점 표시부
160: 입력 수단 식별부 161: 에지 검출부
162: 터치 지점 식별부 163: 손가락 식별부
170: 검색부 180: 출력부
190: 문자 정보 저장부 200: 인터페이스 처리부
300: 정보 처리 장치 310: 입력 수단 식별부
320: 문자 정보 저장부 330: 검색부
340: 인터페이스 제어부 350: 문자 정보 표시부
360: 문자 입력 인터페이스 장치 400: 문자 입력 시스템
723: 중지 터치 입력 마커 724: 약지 터치 입력 마커
900: 그래픽 사용자 인터페이스
100: character input device 110: touch screen
120: camera 130: mirror
140: 3D depth sensor 150: touch point display
160: input means identification unit 161: edge detection unit
162: touch point identification unit 163: finger identification unit
170: search unit 180: output unit
190: text information storage unit 200: interface processing unit
300: information processing apparatus 310: input means identification unit
320: text information storage unit 330: search unit
340: interface control unit 350: character information display unit
360: character input interface device 400: character input system
723: stop touch input marker 724: ring finger touch input marker
900: graphical user interface

Claims (19)

정보 처리 장치에 있어서,
문자 입력 인터페이스 장치를 통해 입력된 사용자의 입력 데이터로부터, 사용자가 입력 처리를 수행한 손가락의 종류를 식별하는 입력 수단 식별부,
손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 통해 나타내는 그래픽 사용자 인터페이스를 상기 정보 처리 장치의 디스플레이에 표시하는 인터페이스 제어부,
상기 입력 수단 식별부에 의해 식별된 손가락의 조합에 매칭되는 문자 정보를 검색하는 검색부,
상기 검색부를 통해 검색된 문자 정보를 상기 디스플레이에 표시하는 문자 정보 표시부를 포함하되,
상기 포인트 가이드는 손가락 입력을 가이드하는 포인트 및 각 포인트의 조합을 가이드하는 연결선을 포함하되, 연결선의 길이는 포인트 간격에 비례하여 증가하는 정보 처리 장치.
In the information processing apparatus,
An input means identification section for identifying a type of a finger on which the user has performed an input process, from the user's input data input through the character input interface device;
An interface control unit for displaying on the display of the information processing apparatus a graphic user interface indicating character information matched according to the type of a finger or the combination state of the fingers through a point guide;
A retrieval unit for retrieving character information matching the combination of fingers identified by the input means identification unit;
Including a character information display unit for displaying the character information retrieved through the search unit on the display,
The point guide includes a point for guiding a finger input and a connecting line for guiding a combination of each point, wherein the length of the connecting line increases in proportion to the point interval.
제 1 항에 있어서,
상기 포인트 가이드는 상기 포인트의 조합에 따라 매칭되는 문자 및 배치가 사용자에 의해 설정될 수 있는 정보 처리 장치.
The method of claim 1,
The point guide is an information processing apparatus that can be set by the user to match characters and arrangement in accordance with the combination of the points.
제 1 항에 있어서,
상기 문자 입력 인터페이스 장치는 사용자의 손가락 터치 동작을 감지하는 3D 깊이 센서이거나 각각의 손가락에 대응하는 구별된 복수의 버튼으로 구성된 물리적 버튼인 정보 처리 장치.
The method of claim 1,
And the character input interface device is a 3D depth sensor for detecting a user's finger touch or a physical button composed of a plurality of distinct buttons corresponding to each finger.
제 3 항에 있어서,
상기 입력 수단 식별부는 상기 3D깊이 센서를 통해 감지된 상기 손가락의 깊이 정보에 기초하여 상기 손가락의 끝점을 추출하는 정보 처리 장치.
The method of claim 3, wherein
And the input means identification unit extracts an end point of the finger based on depth information of the finger sensed by the 3D depth sensor.
제 3 항에 있어서,
상기 입력 수단 식별부는 상기 물리적 버튼 하나의 입력 데이터를 상기 사용자의 손가락 하나의 입력으로 대응시켜 입력된 손가락을 식별하는 정보 처리 장치.
The method of claim 3, wherein
And the input means identification unit identifies the input finger by mapping the input data of one physical button to the input of one finger of the user.
제 1 항에 있어서,
상기 인터페이스 제어부는 사용자의 입력 처리에 따라 선택된 포인트 및 연결선과 그에 매칭된 문자 정보를 실시간으로 표시하는 정보 처리 장치.
The method of claim 1,
And the interface controller is configured to display, in real time, a selected point and connection line according to a user's input process and text information matched thereto.
제 1 항에 있어서,
상기 정보 처리 장치는 상기 입력 수단 식별부를 통해 식별된 손가락에 대응하는 문자 정보를 저장하는 문자 정보 저장부를 더 포함하고,
상기 검색부는 상기 문자 정보 저장부로부터 상기 식별된 손가락 조합에 대응하는 문자 정보를 검색하는 정보 처리 장치.
The method of claim 1,
The information processing apparatus further includes a text information storage section for storing text information corresponding to the finger identified through the input means identification section,
And the retrieval unit retrieves character information corresponding to the identified finger combination from the character information storage unit.
제 7 항에 있어서,
상기 문자 정보 저장부는 엄지, 검지, 중지, 약지 및 소지에 해당하는 각각의 포인트 및 둘 이상의 포인트의 조합에 따라 매칭되는 문자 정보를 저장하는 정보 처리 장치.
The method of claim 7, wherein
And the character information storage unit stores character information that is matched according to each point corresponding to a thumb, index finger, middle finger, ring finger, and possession and a combination of two or more points.
문자 입력 장치에 있어서,
터치 스크린,
상기 터치 스크린의 테두리에 인접한 위치에 결합된 카메라,
상기 카메라와 인접한 위치에 상기 카메라의 촬영 방향과 교차하도록 결합되어, 상기 카메라가 사용자의 터치 동작을 촬영하도록 가이드하는 미러,
상기 터치 스크린에 대한 터치 동작 발생시에 상기 터치 스크린상의 터치가 발생한 지점에 해당 지점을 강조 표시하는 마커를 출력하는 터치 지점 표시부,
상기 터치 스크린에 대한 터치 동작을 촬영한 영상에 기초하여 터치 동작을 수행한 손가락의 종류를 식별하는 입력 수단 식별부,
상기 입력 수단 식별부에 의해 식별된 손가락의 조합에 매칭되는 문자 정보를 검색하는 검색부 및
상기 문자 정보를 출력하는 출력부를 포함하는 문자 입력 장치.
In the character input device,
touch screen,
A camera coupled to a position adjacent to an edge of the touch screen,
A mirror coupled to a location adjacent to the camera to intersect the shooting direction of the camera to guide the camera to capture a user's touch motion;
A touch point display unit for outputting a marker for highlighting a corresponding point at a point where a touch on the touch screen occurs when a touch operation with respect to the touch screen occurs;
An input means identification unit for identifying a type of a finger performing a touch operation based on an image photographing a touch operation on the touch screen;
A search unit for searching for character information matching the combination of fingers identified by the input means identification unit;
Character input device comprising an output unit for outputting the character information.
제 9 항에 있어서,
상기 출력부는 상기 문자 정보를 외부 정보 처리 장치에 전송하는 문자 입력 장치.
The method of claim 9,
And the output unit transmits the text information to an external information processing apparatus.
제 9 항에 있어서,
상기 출력부는 상기 문자 정보를 암호화한 문자 암호화 데이터를 외부 정보 처리 장치에 전송하는 문자 입력 장치.
The method of claim 9,
And the output unit transmits character encrypted data obtained by encrypting the character information to an external information processing apparatus.
제 9 항에 있어서,
상기 문자 입력 장치는 상기 입력 수단 식별부를 통해 식별된 손가락에 대응하는 문자 정보를 저장하는 문자 정보 저장부를 더 포함하고,
상기 검색부는 상기 문자 정보 저장부로부터 상기 식별된 손가락에 대응하는 문자 정보를 검색하는 문자 입력 장치.
The method of claim 9,
The character input apparatus further includes a character information storage unit for storing character information corresponding to the finger identified through the input means identification unit,
And the search unit retrieves text information corresponding to the identified finger from the text information storage unit.
제 12 항에 있어서,
상기 문자 정보 저장부는 엄지, 검지, 중지, 약지 및 소지에 해당하는 각각의 포인트 및 둘 이상의 포인트의 조합에 따라 매칭되는 문자 정보를 저장하는 문자 입력 장치.
13. The method of claim 12,
The character information storage unit stores character information that is matched according to a combination of two or more points and each point corresponding to the thumb, the index finger, the middle finger, the ring finger, and the hand.
제 13 항에 있어서,
상기 문자 정보 저장부는 각각의 포인트 및 둘 이상의 포인트의 조합을 터치하는 터치 입력 제스처에 따라 매칭되는 문자 정보를 저장하는 문자 입력 장치.
The method of claim 13,
The text information storage unit stores text information that is matched according to a touch input gesture of touching each point and a combination of two or more points.
제 9 항에 있어서,
상기 문자 입력 장치는 손가락의 종류 또는 손가락의 조합 상태에 따라 매칭되는 문자 정보를 포인트 가이드를 통해 나타내는 그래픽 사용자 인터페이스를 표시하는 인터페이스 처리부를 더 포함하는 문자 입력 장치.
The method of claim 9,
The character input apparatus further includes an interface processor configured to display a graphic user interface indicating character information matched according to a type of finger or a combination state of the fingers through a point guide.
제 15 항에 있어서,
상기 포인트 가이드는 손가락 입력을 가이드하는 포인트 및 각 포인트의 조합을 가이드하는 연결선을 포함하되, 연결선의 길이는 포인트 간격에 비례하여 증가하는 문자 입력 장치.
The method of claim 15,
The point guide includes a point for guiding a finger input and a connection line for guiding a combination of each point, wherein the length of the connection line increases in proportion to the point interval.
제 15 항에 있어서,
상기 포인트 가이드는 상기 포인트의 조합에 따라 매칭되는 문자 및 배치가 사용자에 의해 설정될 수 있는 문자 입력 장치.
The method of claim 15,
The point guide is a character input device that can be set by the user the matching characters and arrangement in accordance with the combination of the points.
제 9 항에 있어서,
상기 입력 수단 식별부는
상기 카메라를 통해 촬영한 사용자의 터치 동작 영상에 기초하여 상기 손가락의 끝점을 추출하는 에지 검출부,
상기 사용자의 터치 동작 영상에 표시된 마커를 통해 터치 동작이 발생한 지점의 위치를 식별하는 터치 지점 식별부 및
상기 손가락의 끝점과 터치 동작이 발생한 지점의 위치를 매칭시켜 터치 동작을 발생시킨 손가락을 식별하는 손가락 식별부를 포함하는 문자 입력 장치.
The method of claim 9,
The input means identification unit
An edge detector extracting an end point of the finger based on a user's touch operation image photographed through the camera;
A touch point identification unit for identifying a position of a point where a touch action occurs through a marker displayed on the touch action image of the user;
And a finger identification unit configured to identify a finger generating a touch action by matching a position of an end point of the finger with a point where a touch action occurs.
제 9 항에 있어서,
상기 카메라가 결합된 지점에 인접하여 결합된 3D깊이 센서를 더 포함하고,
상기 입력 수단 식별부는
상기 3D깊이 센서를 통해 감지된 깊이 정보에 기초하여 상기 손가락의 끝점을 추출하는 에지 검출부,
상기 카메라를 통해 촬영한 사용자의 터치 동작영상에 표시된 마커를 통해 터치 동작이 발생한 지점의 위치를 식별하는 터치 지점 식별부 및
상기 손가락의 끝점과 터치 동작이 발생한 지점의 위치를 매칭시켜 터치 동작을 발생시킨 손가락을 식별하는 손가락 식별부를 포함하는 문자 입력 장치.
The method of claim 9,
Further comprising a 3D depth sensor coupled adjacent to the point where the camera is coupled,
The input means identification unit
An edge detector extracting an end point of the finger based on depth information detected by the 3D depth sensor;
A touch point identification unit for identifying a position of a point where a touch action occurs through a marker displayed on a user's touch action image photographed through the camera;
And a finger identification unit configured to identify a finger generating a touch action by matching a position of an end point of the finger with a point where a touch action occurs.
KR1020130027464A 2013-03-14 2013-03-14 Device for character input KR101358422B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130027464A KR101358422B1 (en) 2013-03-14 2013-03-14 Device for character input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130027464A KR101358422B1 (en) 2013-03-14 2013-03-14 Device for character input

Publications (1)

Publication Number Publication Date
KR101358422B1 true KR101358422B1 (en) 2014-02-12

Family

ID=50269853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130027464A KR101358422B1 (en) 2013-03-14 2013-03-14 Device for character input

Country Status (1)

Country Link
KR (1) KR101358422B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030090633A (en) * 2001-02-05 2003-11-28 카스텐 메링 System and method for keyboard independent touch typing
KR20110041757A (en) * 2009-10-16 2011-04-22 에스케이텔레콤 주식회사 Apparatus and method for providing user interface by gesture
KR20110053396A (en) * 2009-11-15 2011-05-23 에스케이텔레콤 주식회사 Apparatus and method for providing user interface by gesture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030090633A (en) * 2001-02-05 2003-11-28 카스텐 메링 System and method for keyboard independent touch typing
KR20110041757A (en) * 2009-10-16 2011-04-22 에스케이텔레콤 주식회사 Apparatus and method for providing user interface by gesture
KR20110053396A (en) * 2009-11-15 2011-05-23 에스케이텔레콤 주식회사 Apparatus and method for providing user interface by gesture

Similar Documents

Publication Publication Date Title
KR101466544B1 (en) Combined radio-frequency identification and touch input for a touch screen
US9891822B2 (en) Input device and method for providing character input interface using a character selection gesture upon an arrangement of a central item and peripheral items
KR102143574B1 (en) Method and apparatus for online signature vefication using proximity touch
US20090073136A1 (en) Inputting commands using relative coordinate-based touch input
US20100321296A1 (en) Method and system for secure password/pin input via mouse scroll wheel
CN103294257B (en) The apparatus and method for being used to guide handwriting input for handwriting recognition
US20210350122A1 (en) Stroke based control of handwriting input
US20180107651A1 (en) Unsupported character code detection mechanism
US20160210452A1 (en) Multi-gesture security code entry
JP2015090670A (en) Electronic apparatus, method, and program
Zhang et al. Gestkeyboard: enabling gesture-based interaction on ordinary physical keyboard
US10095309B2 (en) Input device, system and method for finger touch interface
CN106293128B (en) Blind character input method, blind input device and computing device
US9183276B2 (en) Electronic device and method for searching handwritten document
JP6430198B2 (en) Electronic device, method and program
CN101685361A (en) Hand-drawing graphics password input method
JP6081606B2 (en) Electronic apparatus and method
KR101358422B1 (en) Device for character input
CN111566609B (en) Computer device with variable display output based on user input
JP2020021458A (en) Information processing apparatus, information processing method, and information processing system
CN108460260A (en) The method of detecting system, fingerprint sensor and related finger touching certification
US9720513B2 (en) Apparatus and method for receiving a key input
KR20090009184A (en) Character input apparatus and method using in electronic apparatus
Salmansha et al. Mini keyboard: Portative human interactive device
Anand et al. Contactless ATM-Touch Free Banking Experience

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170109

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180108

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190121

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200106

Year of fee payment: 7