KR101239576B1 - Communication character display and input method having character display unit - Google Patents

Communication character display and input method having character display unit Download PDF

Info

Publication number
KR101239576B1
KR101239576B1 KR1020110027257A KR20110027257A KR101239576B1 KR 101239576 B1 KR101239576 B1 KR 101239576B1 KR 1020110027257 A KR1020110027257 A KR 1020110027257A KR 20110027257 A KR20110027257 A KR 20110027257A KR 101239576 B1 KR101239576 B1 KR 101239576B1
Authority
KR
South Korea
Prior art keywords
area
assigned
region
character
characters
Prior art date
Application number
KR1020110027257A
Other languages
Korean (ko)
Other versions
KR20120108871A (en
Inventor
김성림
Original Assignee
김성림
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김성림 filed Critical 김성림
Priority to KR1020110027257A priority Critical patent/KR101239576B1/en
Publication of KR20120108871A publication Critical patent/KR20120108871A/en
Application granted granted Critical
Publication of KR101239576B1 publication Critical patent/KR101239576B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

소통이 가능한 문자 입력 장치 및 방법이 개시된다. 본 발명은 피사체를 다수 개의 영역으로 분할하고 분할된 소정의 위치에 문자입력에 필요한 자음, 모음, 알파벳 등의 문자를 각각 복수 개 배정하고 터치되는 위치로 해당 문자를 인식하고 표시할 수 있도록 하여 보다 손쉽게 그리고 빠르게 문자를 서로 통신할 수 있는 효과가 있다.Disclosed are a character input device and method capable of communicating. The present invention divides a subject into a plurality of regions, assigns a plurality of characters such as consonants, vowels, and alphabets necessary for inputting characters to the predetermined predetermined positions, and recognizes and displays the corresponding characters at the touched positions. There is an effect that can easily and quickly communicate text to each other.

Description

소통이 가능한 문자 입력 장치 및 방법{COMMUNICATION CHARACTER DISPLAY AND INPUT METHOD HAVING CHARACTER DISPLAY UNIT}COMMUNICATION CHARACTER DISPLAY AND INPUT METHOD HAVING CHARACTER DISPLAY UNIT}

본 발명은 문자입력장치 및 방법에 관한 것으로, 상세하게는 피사체를 다수 개의 영역으로 분할하고 분할된 소정의 위치에 문자입력에 필요한 자음, 모음, 알파벳 등의 문자를 각각 복수 개 배정하고 터치되는 위치로 해당 문자를 인식하고 표시할 수 있도록 하는 소통이 가능한 문자 입력 장치 및 방법에 관한 것이다.The present invention relates to a character input device and method, and more particularly, to divide a subject into a plurality of areas, and assign a plurality of characters such as consonants, vowels, and alphabets required for character input to a predetermined predetermined location, and touch the positions. The present invention relates to a character input device and a method for communicating that allow a character to be recognized and displayed.

휴대전화, PDA(Personal Digital Assistant) 및 개인용 컴퓨터 등과 같은 다양한 전자기기단말기를 통해 한글을 입력하는 다수의 방식이 존재한다.There are a number of ways to input Hangul through various electronic device terminals such as mobile phones, PDAs (Personal Digital Assistants) and personal computers.

천지인(天地人) 방식은 3개의 기본 형태 요소인 'ㆍ'(천), 'ㅡ'(지) 및 'ㅣ'(인)을 이용하여 모든 한글 모음을 입력할 수 있으므로, 한정된 수의 영역를 둘 수 밖에 없는 휴대전화나 좁은 터치 스크린 상의 화면에 영역를 표시해야 하는 PDA와 같은 휴대용 통신 단말기에 유용하게 사용된다.Cheonjiin (天地 人) method can input all Hangul vowels using three basic form elements, '·' (천), 'ㅡ' (지) and 'ㅣ' (인). It is useful for handheld communication terminals such as PDAs that have only a small number of mobile phones and a screen on a narrow touch screen.

또한, 영어는 기본적으로 26개의 글자를 정해진 자판에 배정하여야 하기 때문에 자판별로 단어들을 중복으로 배정하고 해당 단어를 선택하기 위해서는 동일한 자판을 중복해서 두드려야 하는 불편함이 있다.In addition, since English has to assign 26 letters to a predetermined keyboard, it is inconvenient to repeatedly assign the same keyboard to each word and to tap the same keyboard to select the corresponding word.

그러나 이러한 종래의 문자 입력 방식들은 모두 기기의 자판을 손으로 두드려 입력하는 방식으로 특정 기기에 문자를 입력할 수 있는 방법으로는 사용이 되나 인간과 기계 또는 인간과 인간이 서로 소통할 수 있도록 하는 문자 입력방식으로는 사용할 수가 없다.However, all of these conventional character input methods can be used as a method of inputting a character on a specific device by tapping on the keyboard of the device by hand, but a character that allows a human and a machine or a human and a human to communicate with each other It cannot be used as an input method.

또한 종래의 문자입력장치는 정지하거나 자리에 앉아야 만이 문자입력을 할 수있기 때문에 불편하다.
In addition, the conventional character input device is inconvenient because it is only possible to enter the character only to stop or sit in the seat.

이러한 문제점을 해결하기 위한 본 발명은 피사체를 분할된 영역으로 구분한 뒤 각 영역에 문자 입력에 필요한 복수개의 문자를 배정하여 의사를 소통할 수 있는 문자 입력 장치 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention to solve this problem is to provide a character input device and method that can communicate the intention by assigning a plurality of characters required for character input to each area after dividing the subject into divided areas.

또한, 본 발명은 해당 영역에 복수 개의 문자가 배정된 경우에도 한 번의 터치로 해당 단어를 손쉽게 인식할 수 있는 문자 입력 장치 및 방법을 제공하는 것을 다른 목적으로 한다.Another object of the present invention is to provide a character input device and a method for easily recognizing a word with a single touch even when a plurality of characters are assigned to a corresponding area.

그리고 본 발명은 이동 중이나 누워서도 상호 소통할 수 있는 문자 입력 장치 및 방법을 제공하는 것을 또 다른 목적으로 한다.
And another object of the present invention is to provide a character input device and method that can communicate with each other while moving or lying down.

이러한 목적을 달성하기 위한 본 발명의 소통이 가능한 문자 입력 장치는 하나 이상의 영역으로 분할하고 상기 분할된 영역에 각각 문자입력에 필요한 자음, 모음, 또는 알파벳 중 어느 하나 이상의 문자를 복수 개 배정한 문자표시유닛과, 터치되는 상기 문자표시유닛의 영역별 위치를 영상으로 입력받는 영상입력장치, 상기 영상입력장치의 영상으로부터 해당 영역에 배정된 문자를 인식하는 제어부 및 상기 제어부에서 인식된 문자를 표시하는 표시장치를 포함하여 구성할 수 있다.The character input device which can communicate according to the present invention for achieving the above object is divided into one or more regions, and a character display unit in which a plurality of characters of at least one of consonants, vowels, and alphabets required for character input are respectively assigned to the divided regions. And an image input device that receives the position of each area of the character display unit to be touched as an image, a controller that recognizes a character assigned to the corresponding area from an image of the image input device, and a display device that displays the recognized character by the controller. It can be configured to include.

또한 상기 문자표시유닛의 영역을 지시하는 영역지시장치를 더 포함하도록 구성하고 상기 제어부는 상기 문자표시유닛에 상기 영역지시장치가 지시하는 영역에 배정된 문자를 인식하도록 할 수 있다.The apparatus may further include an area indicator indicating an area of the character display unit, and the controller may allow the character display unit to recognize a character assigned to an area indicated by the area indicating device.

상기 문자표시유닛은 신체의 머리 부분 또는 몸통 부분을 각각 9개 영역으로 분할하여 각 영역에 복수 개의 문자를 배치할 수 있다.The letter display unit divides the head or the trunk of the body into nine areas, and may place a plurality of letters in each area.

또한, 손가락을 상기 영역지시장치로 설정한 경우에 상기 제어부는 상기 손가락의 형상에 따라 해당 영역에 배정된 복수의 문자 중 하나를 선택하도록 하면 의사 소통이 가능하게 할 수 있다. In addition, when the finger is set as the area indicating device, the controller may enable communication by selecting one of a plurality of characters assigned to the corresponding area according to the shape of the finger.

이러한 목적을 달성하기 위한 본 발명의 소통이 가능한 문자 입력 방법은 (a)피사체를 하나 이상의 영역으로 분할하고 상기 분할된 영역에 각각 문자입력에 필요한 자음, 모음, 또는 알파벳 중 어느 하나 이상의 문자를 복수 개 배정하는 단계, (b)터치되는 상기 피사체의 영역별 위치를 영상으로 입력받는 단계, (c)상기 터치되는 해당 영역에 배정된 문자를 인식하는 단계 및 (d)상기 (c)단계에서 인식된 문자를 표시하는 단계를 포함하여 이루어지게 한다. In order to achieve the above object, a method of inputting a text that can be communicated with the present invention includes (a) dividing a subject into one or more regions, and each of the one or more characters of consonants, vowels, or alphabets required for character input into each of the divided regions. The step of assigning the dog, (b) Receiving the position of the area of the subject to be touched as an image, (c) Recognizing the character assigned to the touched area and (d) Recognizing in the step (c) And displaying the displayed character.

특히, 복수 개의 문자를 인식하는 방법은 상기 터치되는 해당 영역에 배정된 문자를 판단하고, 터치되는 손가락의 형상을 인식한 다음, 상기 손가락의 형상에 따라 해당 영역에 배정된 복수 개의 문자 중 어느 하나를 인식하도록 하면 손쉽게 해당 문자를 인식할 수 있다.
In particular, the method of recognizing a plurality of characters determines a character assigned to the touched region, recognizes the shape of the touched finger, and then selects any one of the plurality of characters assigned to the region according to the shape of the finger. You can easily recognize the character if you recognize it.

따라서 본 발명의 소통이 가능한 문자 입력 장치 및 방법에 의하면 피사체의 소정 영역에 문자를 배정하고 이를 인식할 수 있도록 하여 인간과 기계 또는 인간과 인간이 말을 하지 않고 의사를 소통할 수 있다.Therefore, according to the character input device and method of the present invention, a character can be assigned to a predetermined area of the subject and the character can be recognized so that a human and a machine or a human and a human can communicate without talking.

또한, 본 발명의 소통이 가능한 문자 입력 장치 및 방법에 의하면 문자 입력 방법에 의하면 해당 영역에 복수의 알파벳이 배정되어 있더라도 한 번의 터치로 해당 단어를 입력할 수 있는 효과가 있다.In addition, according to the character input apparatus and method of the present invention, the character input method has an effect of inputting the word with one touch even if a plurality of alphabets are assigned to the corresponding area.

또한 본 발명에 의하면 누워서도 걸어가면서도 또는 운전을 하면서도 문자를 입력할 수 있는 효과가 있다.In addition, according to the present invention there is an effect that can enter a letter while walking or driving while lying down.

또한 본 발명에 의하면 일정 영역으로 분할할 수 있는 대상은 모두 피사체로 사용될 수 있기 때문에 대상을 손쉽게 정할 수 있는 효과가 있다.In addition, according to the present invention, since all objects that can be divided into a predetermined area can be used as a subject, the object can be easily determined.

그리고 본 발명의 소통이 가능한 문자 입력 장치 및 방법에 의하면 일종의 수화기능도 할 수 있기 때문에 청각장애인이나 사고로 말을 할 수 없는 환자들의 경우에 의사소통을 할 수 있는 효과가 있다.
And the character input device and method that can communicate according to the present invention can also perform a kind of sign language function can communicate in the case of hearing impaired or patients who can not speak in an accident.

도 1은 본 발명의 문자 입력 장치의 주요 구성도,
도 2는 본 발명의 기본 자음과 모음의 배치를 예시한 도면,
도 3은 본 발명의 일정 영역에 복수 개의 자음이나 모음을 배정한 경우의 일례를 도시한 도면,
도 4는 본 발명의 알파벳 문자 배열을 예시한 도면,
도 5는 본 발명의 제1 실시예에 의한 한글 문자판을 얼굴의 위치에 따라 배정한 일례를 예시한 도면,
도 6은 본 발명의 제2 실시예에 의한 터치 위치에 따라 문자를 인식하는 방법을 설명하기 위한 예시도면
그리고,
도 7은 본 발명의 소통이 가능한 문자 입력 방법을 설명하기 위한 흐름도이다.
1 is a main configuration diagram of a character input device of the present invention,
2 is a diagram illustrating the arrangement of basic consonants and vowels of the present invention;
3 is a diagram showing an example in the case of assigning a plurality of consonants or vowels to a predetermined region of the present invention;
4 is a diagram illustrating an alphabet letter arrangement of the present invention;
5 is a diagram illustrating an example in which the Hangul dial according to the first embodiment of the present invention is assigned according to the position of a face;
6 is an exemplary view for explaining a method of recognizing a character according to a touch position according to a second embodiment of the present invention.
And,
7 is a flowchart illustrating a text input method that can communicate with the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.It is to be understood that the words or words used in the present specification and claims are not to be construed in a conventional or dictionary sense and that the inventor can properly define the concept of a term in order to describe its invention in the best possible way And should be construed in light of the meanings and concepts consistent with the technical idea of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, the terms “… unit”, “… unit”, “module”, “device”, and the like described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. It can be implemented as.

이하, 도면을 참조하여 본 발명의 문자 입력 방법에 대하여 설명한다.Hereinafter, a character input method of the present invention will be described with reference to the drawings.

도 1은 본 발명의 소통이 가능한 문자입력장치의 구성도로서, 본 발명의 문자입력장치는 피사체의 일정 영역에 자음, 모음, 알파벳 등의 문자가 배정된 문자표시유닛(101), 문자표시유닛(101)에 해당 영역을 지시하는 영역지시장치(120), 문자표시유닛(110)에 영역지시장치(120)가 지시하는 영역을 영상으로 입력받는 영상입력장치(130), 영상입력장치(130)에 입력된 영상을 분석하여 해당 영역의 문자를 인식하는 제어부(140), 인식된 문자를 표시창에 표시하는 표시장치(150)를 포함한다.1 is a block diagram of a character input device that can communicate with the present invention. The character input device of the present invention includes a character display unit 101 and a character display unit in which characters such as consonants, vowels, and alphabets are assigned to a predetermined area of a subject. An area indicating device 120 indicating an area corresponding to the area 101, an image input device 130 receiving an area indicated by the area indicating device 120 into the character display unit 110, and an image input device 130; And a controller 140 for recognizing a character of a corresponding region by analyzing the image input to the display unit and a display device 150 for displaying the recognized character on a display window.

문자표시유닛(110)은 피사체의 소정 영역에 복수 문자를 배정하고 영상입력장치(130)가 영역을 인식할 수 있도록 하기 위하여 메모리(142)에 피사체의 영역별로 배정된 문자를 저장해 두고 피사체의 특정 영역이 인식되도록 구성한다.The character display unit 110 allocates a plurality of characters to a predetermined region of the subject and stores the characters assigned to each region of the subject in the memory 142 so that the image input apparatus 130 can recognize the region. Configure the area to be recognized.

본 발명에서는 의사 소통이 가능한 문자표시장치를 구성하기 위하여 문자표시유닛(110)을 인체의 특정 영역에 문자를 배정하여 설명하기 때문에 이하에서는 문자표시유닛(110)을 피사체로 표현하여 설명하기로 한다.In the present invention, the character display unit 110 is described by assigning a character to a specific area of the human body in order to configure a character display device that can communicate. Hereinafter, the character display unit 110 will be described as a subject. .

따라서 피사체는 카메라가 인식할 수 있는 영역별로 문자를 배정할 수 있도록 피사체의 특정 영역을 9개의 소정 영역(숫자 1 내지 9)으로 분할하고 해당 영역에 복수 개의 문자를 배정하는 것이다.Accordingly, the subject divides a specific region of the subject into nine predetermined regions (numbers 1 to 9) and assigns a plurality of characters to the region so that the characters can be assigned to each region that can be recognized by the camera.

예를 들어 도 2의 본 발명의 기본 자음과 모음의 배치를 예시한 도면과 도 3의 본 발명의 일정 영역에 복수 개의 자음이나 모음을 배정한 경우의 일례를 도시한 도면을 참고하면 피사체의 일정 영역에는 통상의 휴대폰 문자 입력 영역패드 배열과 같이 각 숫자(0~9) 영역패드위에 자음, 모음의 문자가 복수 개 배정된다.For example, referring to a diagram illustrating the arrangement of basic consonants and vowels of the present invention of FIG. 2 and an example of a case where a plurality of consonants or vowels are assigned to a certain region of the present invention of FIG. In the cell phone character input area pad arrangement, a plurality of consonants and vowels are assigned on each number pad (0-9).

즉, 숫자 "1"번 영역에는 자음의 "ㄱ,ㅋ,ㄲ"을 배정하고 모음으로는 "ㅔ,ㅐ,ㅖ,ㅒ"을 배정하고 도 4의 본 발명의 알파벳 문자 배열을 예시한 도면을 참고하면 "1"번 영역에 알파벳으로는 "a,b,c"를 배정한다.That is, the number "1" area is assigned to the "a, ㅋ, ㄲ" of the consonants, "ㅔ, ㅐ, ㅖ, ㅒ" is assigned to the vowels and the figure illustrating the alphabet character arrangement of the present invention of FIG. For reference, "a", "b", "c" are assigned to the area "1".

이러한 자음과 모음 그리고 알파벳도 편의상 배정된 것으로 자음과 모음, 숫자와 그리고 알파벳은 또 다른 형태로 배정될 수 있음을 밝혀둔다.These consonants, vowels, and alphabets are also assigned for convenience, and consonants, vowels, numbers, and alphabets can be assigned to other forms.

"2"번 영역에 자음의 "ㄴ"을 배정하고 모음으로는 "ㅗ,ㅛ"를 배정하고 알파벳은 "d,e,f"를 배정하고, "3"번 영역에는 자음 "ㄷ,ㅌ,ㄸ"을 배정하고 모음은 "ㅘ,ㅚ,ㅙ"를 알파벳은 "g,h,i"를 배정하고, 순서대로 "4"번 영역에는 "ㅁ"과 "ㅓ,ㅕ" 와 "j,k,l"를, "5"번 영역에는 "ㄹ"과 "ㅡ 와 "m,n,o"를, "6"번 영역에는 "ㅂ,ㅍ,ㅃ"과 "ㅏ,ㅑ" 와 "p,q,r"을, "7"번 영역에는 "ㅅ,ㅆ"과 "ㅝ,ㅟ,ㅞ" 와 "s,t,u"를, "8"번 영역에는 "ㅇ,ㅎ"과 "ㅜ,ㅠ" 그리고 "v,w,x"를, "9"번 영역에는 "ㅈ,ㅊ,ㅉ"과 "ㅣ,ㅢ" 와 "y,z"를 배정하였다.Assign "b" of consonants to "2", assign "ㅗ, ㅛ" to vowels, assign "d, e, f" to the alphabet, and "c, ㅌ," to consonants "3". ", Vowel" 은, ㅚ, ㅙ ", alphabet" g, h, i ", and in order" 4 "," ㅁ "and" ㅓ, ㅕ "and" j, k , l "," 5 "," ㄹ "and" ㅡ and "m, n, o", and "6", "ㅂ, ㅂ, ㅃ" and "ㅏ, ㅑ" and "p, q, r "," 7 "," ㅅ, ㅆ "and" ㅝ, ㅟ, ㅞ "and" s, t, u ", and" 8 "," ㅇ, ㅎ "and" TT, "V", "v, w, x", and "9" in the "9,", "ㅣ, ㅢ" and "y, z" are assigned.

이하에서는 복수의 문자가 배정된 경우 순서대로 한글에서는 1가획, 2가획, 3가획 문자로 표시하고 알파벳에서는 1배치, 2배치, 3배치 문자로 표시하기로 한다.In the following, when a plurality of characters are assigned, one-character, two-character, and three-character characters in Korean will be displayed in order, and one, two, and three characters in alphabet.

즉, "1"번 영역의 모음 "ㅔ,ㅐ,ㅖ,ㅒ" 중 모음 1가획 문자는 "ㅐ", 모음 2가획 문자로 "ㅖ", 모음 3가획 문자는 "ㅒ"를 지시하는 것이다. That is, the vowel 1 capture character of the vowel “ㅖ, ㅐ, 영역, ㅒ” of the area “1” indicates “ㅐ”, the vowel 2 capture character “ㅖ”, and the vowel 3 capture character “ㅒ”.

또한 본 발명의 실시예에서는 한글의 자음이 각 숫자 영역에 "ㄱ,ㄴ,ㄷ,ㄹ"과 같이 가나다라 순서로 배정되어 있기 때문에 보다 편하게 해당 자음을 식별할 수 있다.In addition, in the exemplary embodiment of the present invention, since the consonants of the Hangul are assigned to each alphabetical region in the order of "a, b, c, d", the consonants can be more easily identified.

문자표시유닛(110)은 글자판으로서 피사체를 9개의 영역으로 분할하고 분할된 영역에 각각 문자입력에 필요한 자음, 모음, 또는 알파벳 중 어느 하나 이상의 문자를 복수 개 배정하도록 구성한 것이다.The character display unit 110 is configured to divide a subject into nine regions as letter boards, and to assign a plurality of characters of at least one of consonants, vowels, and alphabets required for character input to each divided region.

구체적으로 신체의 일부를 이용하여 배정한 경우를 도 5와 도 6을 참고하여 설명한다.Specifically, the case of using a part of the body will be described with reference to FIGS. 5 and 6.

도 5는 본 발명의 제1 실시예에 의한 한글 문자판을 얼굴의 위치에 따라 배정한 일례를 예시한 도면으로, 도시된 바와 같이, 얼굴을 이용한 경우는 코를 중심으로 눈, 광대뼈, 입, 턱을 응용하면 얼굴을 9등분 하여 글자판으로 사용할 수 있다.FIG. 5 is a diagram illustrating an example in which the Hangul dial according to the first embodiment of the present invention is assigned according to the position of a face. As shown in FIG. 5, when the face is used, eyes, cheekbones, mouth, and chin are used. If applied, the face can be divided into 9 parts and used as a letter board.

즉, 상단 제1영역에 우측눈썹을 배정하고 제2영역에 아미를 제3영역은 좌측눈썹을 배정하고 중단의 제4영역에는 우측광대뼈를 제5영역에는 코를 제6영역에는 좌측광대뼈를 배정하고 하단의 제7영역에는 우측턱을 제8영역에는 입을 그리고 제9영역에는 좌측턱을 배정하는 것이다.That is, the right eyebrow is assigned to the upper first area, the arm is assigned to the second area, and the left eyebrow is assigned to the third area, the right cranial bone is assigned to the fourth region of the middle segment, and the nose to the left region is assigned to the fifth region. The lower jaw is assigned to the right jaw in the seventh region, the mouth to the eighth region, and the left jaw to the ninth region.

또한, 도 6의 가슴을 이용할 경우에는 상단 제1영역을 우측어깨로 배정하고 제2영역을 목으로 제3영역은 좌측어깨로 배정하고 중단의 제4영역에는 우측가슴을 제5영역에는 명치를 제6영역에는 좌측가슴을 배정하고 하단의 제7영역에는 우측옆구리를 제8영역에는 배꼽을 그리고 제9영역에는 좌측옆구리를 배정하는 것이다.In the case of using the chest of FIG. 6, the upper first region is assigned to the right shoulder, the second region to the neck, and the third region is assigned to the left shoulder. The left chest is assigned to the sixth region, the right side copper is assigned to the seventh region at the bottom, the navel is assigned to the eighth region, and the left side copper is assigned to the ninth region.

상술한 바와 같이 본 발명은 피사체의 특정 영역을 구분하여 해당 영역에 복수 개의 문자를 배정하는 것이다. As described above, the present invention divides a specific region of a subject and assigns a plurality of characters to the region.

본 발명에서 중요한 것은 하나의 영역에 여러 문자(자음, 모음, 알파벳 등)를 배정하고 제어부(140)는 이들의 문자의 입력을 영역지시장치(120)가 터치되는 위치에 따라 입력문자를 구별하여 표시되도록 하는 것이다.What is important in the present invention is to assign a number of characters (consonants, vowels, alphabets, etc.) in one area, and the control unit 140 distinguishes the input characters according to the location of the area indicating device 120 is touched input of these characters To be displayed.

영역지시장치(120)는 분할된 피사체의 영역을 지시하도록 동작되며 영역지시장치(120)로 지시된 영역을 제어부(140)에서 인식하고 영역지시장치(120)의 형상에 따라 해당 영역에 배정된 복수의 문자 중 특정 문자를 인식할 수 있도록 구성한다.The area indicating device 120 operates to indicate the area of the divided subject, and the controller 140 recognizes the area indicated by the area indicating device 120 and assigns the area to the corresponding area according to the shape of the area indicating device 120. It is configured to recognize a specific character among a plurality of characters.

따라서 의사 소통이 가능해지도록 하기 위하여 본 발명의 일 실시 예에서는 영역지시장치(120)를 신체의 일부인 손가락을 이용한 경우를 예를 들어 설명한다.Therefore, in order to enable communication, an embodiment of the present invention will be described using the case where the area indicating device 120 uses a finger which is a part of the body as an example.

본 발명의 영역지시장치(120)를 손가락으로 사용한 경우에는 손가락 모양으로 한글과 영어를 인식하게 하는 것이다.When the area indicating device 120 of the present invention is used as a finger, it is to recognize Korean and English in the shape of a finger.

예를 들면 검지손가락으로 해당 영역을 터치하면 자음을 인식하게 하고, 검지와 중지손가락을 동시에 펴서 해당 영역을 터치하면 모음을 인식하게 하는 것이다.For example, if you touch the area with your index finger, the consonant will be recognized. If you touch your area with your index and middle fingers, you will recognize the vowel.

또한, 하나의 영역에 복수 개의 문자가 배정된 경우 1가획 문자 인식은 엄지손가락을 붙여서 지시하거나 해당 영역을 2번 터치하면 1가획 문자를 인식하는 것으로 한다.In addition, when a plurality of characters are assigned to one region, one stroke character recognition may be indicated by attaching a thumb or by touching the region twice to recognize one stroke character.

즉, 검지손가락에 엄지손가락을 붙여서 "1"번 영역을 터치했다면 검지손가락이 자음을 가르키고 엄지손가락을 붙이면 1가획 문자를 지칭하므로 본 발명에서는 "ㅋ"이 인식되는 것이다.That is, if the user touches the area "1" by attaching a thumb to the index finger, the index finger points to consonants and attaches a thumb to refer to a single character, so that "k" is recognized in the present invention.

동일한 원리로 2가획 문자의 인식은 해당 영역을 3번 터치하거나 또는 1가획 문자에서 그 다음 문자를 지칭하는 것이므로 먼저 1가획 문자를 인식하게 하는 상태에서 해당 영역을 터치함과 동시에 엄지손가락을 떼면 해당 영역의 2가획 문자를 인식하게 하는 것이다.In the same principle, the recognition of two stroke characters is to touch the region three times or to refer to the next character in one stroke character. To recognize the two strokes of the region.

3가획 문자 인식은 해당 영역을 4번 터치하거나 5개 손가락을 모두 펴서 터치하면 인식하도록 한다.The 3-stroke character recognition enables recognition by touching the area four times or by spreading all five fingers.

본 발명에서는 "1"번 영역의 모음인 'ㅒ’에 해당한다.In the present invention, it corresponds to 'ㅒ', which is a collection of area "1".

또한 영어의 인식도 한글과 동일하게 설정할 수 있다.Also, the recognition of English can be set the same as Korean.

먼저 1배치 음가 인식은 4개 손가락을 모아서 터치한 경우로, 2배치 음가 인식은 5개 손가락을 붙여서, 그리고 3배치 음가 인식은 5개 손가락을 붙였다가 엄지손가락을 떼면 인식하도록 하는 방식이다.First, the first batch value recognition is a case where four fingers are collected and touched. The second placement value recognition is performed by attaching five fingers, and the third batch value recognition recognizes when five fingers are attached and the thumb is released.

또는 4개 손가락을 모아서 1배치 음가를 인식하고 해당 영역을 2번 터치하면 2배치 음가를 3번 터치하면 3배치 음가를 인식하도록 하는 것이다.Alternatively, by collecting four fingers, one batch sound is recognized, and if the corresponding area is touched twice, the two batch sound is touched three times to recognize the three batch sound.

영상입력장치(130)는 피사체의 특정 영역에 터치되는 영상지시장치(120)의 영역을 영상으로 촬영하여 출력하도록 구성된다.The image input apparatus 130 is configured to photograph and output an area of the image indicating apparatus 120 that is touched to a specific region of the subject as an image.

이를 위하여 영상입력장치(130)는 카메라와 같이 피사체를 촬영하여 그 영상을 출력할 수 있는 영상 촬영장치로 구성된다.To this end, the image input apparatus 130 is configured as an image capturing apparatus capable of capturing a subject and outputting the image like a camera.

본 발명에서는 상술한 바와 같이 신체의 얼굴을 9개 영역으로 분할하여 해당 영역을 인지할 수 있도록 하여야 하기 때문에 보다 해상도가 높은 영상입력장치를 사용하는 것이 바람직하다.In the present invention, as described above, the face of the body must be divided into nine regions so that the corresponding region can be recognized, and therefore, it is preferable to use an image input apparatus having a higher resolution.

제어부(140)는 영상입력장치(130)에서 입력되는 영상으로부터 영역지시장치(120)가 지정하는 해당 영역을 판단하고 영상지시장치(120)의 형상에 따라 복수 개의 문자 중 소정 문자를 인식하도록 동작된다.The controller 140 determines a corresponding region designated by the region indicating apparatus 120 from the image input from the image input apparatus 130 and operates to recognize a predetermined character among a plurality of characters according to the shape of the image indicating apparatus 120. do.

이를 위하여 메모리(142)에는 피사체에 따라 분할되는 영역에 대한 정보와 해당 영역에 배정되는 복수 개의 문자에 대한 정보가 저장되어 있다.To this end, the memory 142 stores information on a region divided according to a subject and information on a plurality of characters assigned to the region.

예를 들면 피사체를 신체의 얼굴로 사용할 때는 상술한 바와 같이 상단 제1영역에 우측눈썹을 배정하고 제2영역에 아미를 제3영역은 좌측눈썹을 배정하고 중단의 제4영역에는 우측광대뼈를 제5영역에는 코를 제6영역에는 좌측광대뼈를 배정하고 하단의 제7영역에는 우측턱을 제8영역에는 입을 그리고 제9영역에는 좌측턱을 배정한 정보가 저장된다.For example, when the subject is used as a face of the body, the right eyebrow is assigned to the upper first area, the arm is assigned to the second area, the left eyebrow is assigned to the third area, and the right clown bone is placed on the fourth area of the middle. In the fifth region, the nose is assigned to the left cheekbone in the sixth region, the right jaw in the seventh region of the lower end, the mouth in the eighth region, and the left jaw in the ninth region are stored.

또한 피사체의 얼굴 중 어느 부분인지를 판단할 수 있는 정보가 저장되어야 하므로 신체의 얼굴에 대한 개략적인 이미지와 우측눈썹에 대한 정보, 아미정보, 좌측눈썹 정보, 우측광대뼈 정보, 코 정보, 좌측광대뼈, 우측턱, 입, 좌측턱에 대한 개략적인 이미지를 저장해 둔다.In addition, information to determine which part of the subject's face should be stored, so a rough image of the face of the body, information about right eyebrows, ami information, left eyebrow information, right clown bone information, nose information, left clown bone, Save a rough image of your right jaw, mouth and left jaw.

따라서 제어부(140)는 영상입력장치(130)에서 영상이 입력되면 메모리(142)로부터 정보를 판독하여 피사체의 영역정보가 신체의 얼굴인지를 먼저 판단한다.Therefore, when the image is input from the image input apparatus 130, the controller 140 first reads information from the memory 142 to determine whether the area information of the subject is the face of the body.

이러한 방법으로 신체의 특정 영역이 판단되면 입력되는 영상으로부터 영역지시장치(120)가 지정하는 해당 영역(얼굴의 특정 영역)을 판단하기 위하여 메모리(142)로부터 정보를 판독하여 신체의 얼굴 중 어느 영역인지를 판단하게 된다.In this way, when it is determined that a specific area of the body is read from the memory 142 to determine a corresponding area (specific area of the face) designated by the area indicating device 120 from the input image, any area of the face of the body is read. It will be judged.

이때는 신체의 얼굴 중 9개 영역 중에서 어느 영역 인지를 판단하고 이어서 영역지시장치(120)의 형상에 따라 자음, 모음 또는 알파벳 중 어느 문자를 지칭하는 것인 지 그리고 해당 영역에 배정된 복수 개의 문자 중 어느 문자를 지칭하는 것인지를 판단하게 된다.In this case, it is determined which area among the nine areas of the face of the body, and according to the shape of the area indicating device 120, which letter refers to a consonant, a vowel or an alphabet, and among the plurality of letters assigned to the area. It will determine which character it refers to.

이렇게 판독된 문자는 표시장치(150)에 표시되도록 하는 것이다.The text thus read is to be displayed on the display device 150.

이하, 이러한 구성을 이용하여 본 발명의 소통이 가능한 문자 입력 방법에 대하여 설명한다.Hereinafter, the character input method which can communicate with this invention using this structure is demonstrated.

도 8은 본 발명의 소통이 가능한 문자 입력 방법을 설명하기 위한 흐름도로서, 도시된 바와 같이 본 발명은 문자 입력 방법은 먼저 특정 영역을 분류하고 해당 영역별로 복수 개의 문자를 배정하게 된다(S210).8 is a flowchart illustrating a text input method in which the present invention can be communicated. As shown in the present invention, the text input method first classifies a specific region and assigns a plurality of characters for each region (S210).

예를 들어 상단 제1영역에 우측눈썹을 배정하고 제2영역에 아미를 제3영역은 좌측눈썹을 배정하고 중단의 제4영역에는 우측광대뼈를 제5영역에는 코를 제6영역에는 좌측광대뼈를 배정하고 하단의 제7영역에는 우측턱을 제8영역에는 입을 그리고 제9영역에는 좌측턱을 배정하는 것이다.For example, the right eyebrow is assigned to the upper first area, the arm is assigned to the second area, and the left eyebrow is assigned to the third area, the right cranial bone is placed in the fourth area of the middle, and the nose is left in the fifth area. The lower jaw is assigned to the seventh region of the lower side, the mouth to the eighth region, and the left jaw to the ninth region.

또한, 가슴을 이용할 경우에는 상단 제1영역을 우측어깨로 배정하고 제2영역을 목으로 제3영역은 좌측어깨로 배정하고 중단의 제4영역에는 우측가슴을 제5영역에는 명치를 제6영역에는 좌측가슴을 배정하고 하단의 제7영역에는 우측옆구리를 제8영역에는 배꼽을 그리고 제9영역에는 좌측옆구리를 배정하는 것이다.In the case of using the chest, the upper first region is assigned to the right shoulder, the second region to the neck, and the third region is assigned to the left shoulder. The left chest is assigned, the right side copper in the seventh region of the lower side, the navel in the eighth region, and the left side copper in the ninth region.

그리고 각각의 제1영역에는 자음의 "ㄱ,ㅋ,ㄲ"을 배정하고 모음으로는 "ㅔ,ㅐ,ㅖ,ㅒ"을 배정하고 알파벳으로는 "a,b,c"를 배정한다.In each of the first regions, "a, ㅋ, ㄲ" of consonants is assigned, "ㅔ, ㅐ, ㅖ, ㅒ" for vowels, and "a, b, c" for alphabets.

"2"번 영역에 자음의 "ㄴ"을 배정하고 모음으로는 "ㅗ,ㅛ"를 배정하고 알파벳은 "d,e,f"를 배정하고, "3"번 영역에는 자음 "ㄷ,ㅌ,ㄸ"을 배정하고 모음은 "ㅘ,ㅚ,ㅙ"를 알파벳은 "g,h,i"를 배정하고, 순서대로 "4"번 영역에는 "ㅁ"과 "ㅓ,ㅕ" 와 "j,k,l"를, "5"번 영역에는 "ㄹ"과 "ㅡ 와 "m,n,o"를, "6"번 영역에는 "ㅂ,ㅍ,ㅃ"과 "ㅏ,ㅑ" 와 "p,q,r"을, "7"번 영역에는 "ㅅ,ㅆ"과 "ㅝ,ㅟ,ㅞ" 와 "s,t,u"를, "8"번 영역에는 "ㅇ,ㅎ"과 "ㅜ,ㅠ" 그리고 "v,w,x"를, "9"번 영역에는 "ㅈ,ㅊ,ㅉ"과 "ㅣ,ㅢ" 와 "y,z"를 배정한다.Assign "b" of consonants to "2", assign "ㅗ, ㅛ" to vowels, assign "d, e, f" to the alphabet, and "c, ㅌ," to consonants "3". ", Vowel" 은, ㅚ, ㅙ ", alphabet" g, h, i ", and in order" 4 "," ㅁ "and" ㅓ, ㅕ "and" j, k , l "," 5 "," ㄹ "and" ㅡ and "m, n, o", and "6", "ㅂ, ㅂ, ㅃ" and "ㅏ, ㅑ" and "p, q, r "," 7 "," ㅅ, ㅆ "and" ㅝ, ㅟ, ㅞ "and" s, t, u ", and" 8 "," ㅇ, ㅎ "and" TT, "V", "v, w, x" and "9" in the "9", "ㅣ, ㅢ" and "ㅣ, ㅢ" and "y, z".

이렇게 배정한 데이터는 메모리(142)에 저장되어 영역지시장치(120)가 지시하는 영역이 정확히 어느 영역인지를 감지하기 위한 기초 자료로 저장된다.The data allocated in this way is stored in the memory 142 and stored as basic data for detecting exactly which area the area indicated by the area indicating device 120 indicates.

단계 S210에서 특정 영역별로 복수 개의 문자가 배정된 것으로 판단되면 영상지시장치(120)가 문자표시유닛(110)의 지정하는 영역을 영상입력장치(130)로 입력받는다(S220).If it is determined in step S210 that a plurality of characters are assigned to each specific area, the image indicating device 120 receives an area designated by the character display unit 110 to the image input device 130 (S220).

즉, 단계 S210에서 도 5에서와 같이 신체의 얼굴을 문자표시유닛(110)으로 할당한 경우에는 영상입력장치(130)인 손으로 터치되는 신체의 얼굴 중 해당 영역을 영상입력장치(130)로 입력받는 것이다.That is, in step S210, when the face of the body is allocated to the character display unit 110 as shown in FIG. 5, the corresponding region of the face of the body touched by the hand, which is the image input device 130, is transferred to the image input device 130. It will receive the input.

단계 S220에서 영상입력장치(130)로 영상이 입력되면 제어부(140)는 메모리(142)에 저장되어 있는 정보를 판독하여 영상입력장치(130)가 입력한 영상을 분석하여 해당 영역과 해당 영역에 배정된 복수 개의 문자 중 어떤 문자가 입력되었는 지를 판단하게 된다(S230).When the image is input to the image input apparatus 130 in step S220, the controller 140 reads the information stored in the memory 142, analyzes the image input by the image input apparatus 130, and then applies the image to the corresponding region and the corresponding region. It is determined whether any character among a plurality of assigned characters has been input (S230).

구체적으로 제어부(140)는 영상입력장치(130)로부터 입력된 영상과 메모리(142)에 저장되어 있는 영상을 비교하여 신체의 얼굴 중 어떤 영역을 영상지시장치(120)가 지시하는지 그리고 터치되는 손가락의 형상을 인식하여 손가락의 형상에 따라 해당 영역에 배정된 복수 개의 문자 중 어느 하나를 인식하게 되는 것이다.In detail, the controller 140 compares an image input from the image input apparatus 130 with an image stored in the memory 142 to determine which area of the face of the body the image indicating apparatus 120 indicates and which finger is touched. By recognizing the shape of the will be to recognize any one of the plurality of characters assigned to the area according to the shape of the finger.

이렇게 인식된 문자는 표시장치(150)에 표시하면 되는 것이다.The recognized character may be displayed on the display device 150.

본 발명의 일 실시 예에서는 신체의 일부를 이용하여 설명을 하였다. 그러나 이러한 문자의 입력방법을 이용하면 스마트 TV의 문자입력 장치로도 사용할 수 있다.In an embodiment of the present invention, description was made using a part of the body. However, if the character input method is used, it can be used as a character input device of a smart TV.

예를 들어, 문자표시유닛(110), 영역지시장치(120), 영상입력장치(130), 제어부(140)를 각각 신체의 일부, 손, 스마트 TV에 장착된 카메라, 카메라의 영상을 입력받아 분석하는 스마트 TV의 제어부로 구성하면 리모컨으로 문자를 입력하거나 검색할 필요가 있을 때, TV리모컨이 없어도 TV를 조작할 수 있게 되는 것이다.For example, the character display unit 110, the area indicating device 120, the image input device 130, and the controller 140 respectively receive a part of the body, a hand, a camera mounted on a smart TV, and an image of the camera. When configured as a control unit of the smart TV to be analyzed, it is possible to operate the TV without a TV remote control when it is necessary to enter or search for a character by the remote control.

또한 다른 실시예로 스마트폰의 경우 문자입력이나 검색의 경우 걸어가는 경우와 같이 움직이면서는 입력할 수 없다는 문제가 있으나, 소통이 가능한 문자 입력 장치 및 방법을 이용하면 걸어가면서나 운전을 하면서도 문자를 입력할 수 있는 기술이 된다.In another embodiment, there is a problem in that the smart phone can not be input while moving as in the case of text input or search, but using a text input device and method that can communicate with the user while walking or driving while entering characters It becomes the technology that can do it.

또한 테블릿 PC는 컴퓨터를 앉아서 사용하는 개념에서 누워서도 사용하는 개념으로 바꾸고 있다. 특히, 전자책을 사용할 경우 더 그러하다. 이때도, 본 발명의 소통이 가능한 문자 입력 장치 및 방법을 이용하면 누워서도 문자를 입력할 수 있다.Tablet PCs are also changing from the concept of sitting and using computers to the concept of lying down. This is especially true when using e-books. In this case, by using the character input device and the method of the present invention, the character can be input while lying down.

따라서 본 발명은 문자표시유닛(110)으로 일정 영역을 배정할 수 있는 대상이면 모두 가능하다. 즉, 책, 책상 등 무엇이든지 문자판으로 응용이 가능한 것이다.Therefore, the present invention can be any object that can be assigned a certain area to the character display unit (110). In other words, anything, such as books, desks, etc. can be applied to the dial.

책을 예를 들어 설명하면 책은 대부분 직 사각형 형태를 하고 있다. 책 모양을 보면 책을 9등분 할 수가 있다. 4개의 변과 4개의 귀 그리고 중앙으로 구분하여 9등분 하고, 그리고 가상의 9등분 위에 복수의 문자를 배치하면 스마트폰의 카메라를 이용하여 책을 글자판으로 사용할 수 있는 것이다.Using books as an example, most of the books have a rectangular shape. If you look at the book shape, you can divide the book into nine. Dividing it into four parts, four ears, and the center into nine equal parts, and placing multiple letters on the virtual nine equal parts makes it possible to use the book as a dial using a smartphone camera.

이러한 논리를 이용하면 장애인과 소통도 가능하다는 것을 알 수 있다.Using this logic, it can be seen that communication with the disabled is also possible.

본 발명은 일반인의 경우 상술한 바와 같이 이동중이거나 누워서 또는 차량을 운전하면서 사용하는 문자 입력방법이지만 본 발명의 문자 입력방법을 카메라가 아닌 사람이 볼 경우에도 글자를 인식하게 할 수 있는 것이다.The present invention is a character input method used by the general person while moving, lying or driving a vehicle as described above, but the character input method of the present invention can be recognized by a person other than a camera.

즉, 신체의 얼굴을 문자표시유닛(110)으로 사용할 때는 상술한 바와 같이 상단 제1영역에 우측눈썹을 배정하고 제2영역에 아미를 제3영역은 좌측눈썹을 배정하고 중단의 제4영역에는 우측광대뼈를 제5영역에는 코를 제6영역에는 좌측광대뼈를 배정하고 하단의 제7영역에는 우측턱을 제8영역에는 입을 그리고 제9영역에는 좌측턱을 배정하고, 손가락의 형상으로 배정된 문자 중 소정 문자를 판독할 수 있도록 하면 된다.That is, when the face of the body is used as the character display unit 110, as described above, the right eyebrow is assigned to the upper first area, the arm is assigned to the second area, and the third area is assigned to the left eyebrow. The right cheekbone is assigned to the fifth region and the left cheekbone to the sixth region. The right jaw is assigned to the seventh region at the bottom, the mouth to the eighth region and the left jaw to the ninth region. What is necessary is just to be able to read the predetermined | prescribed character.

예를 들면 한글의 경우, 검지손가락으로 해당 영역을 터치하면 자음을 인식하게 하고, 검지와 중지손가락을 동시에 펴서 해당 영역을 터치하면 모음을 인식하게 하고, 하나의 영역에 복수 개의 문자가 배정된 경우 1가획 문자 인식은 엄지손가락을 붙여서 지시하면 1가획 문자를 인식하고, 동일한 원리로 2가획 문자의 인식은 1가획 문자를 인식하게 하는 상태에서 해당 영역을 터치함과 동시에 엄지손가락을 떼면 해당 영역의 2가획 문자를 인식하게 하는 것이다.For example, in the case of Hangul, if you touch the area with your index finger, the consonant is recognized.If you touch the area with your index finger and middle finger at the same time, the vowel will be recognized.If multiple letters are assigned to one area, 1 stroke character recognition recognizes 1 stroke character when instructed with a thumb, and the same principle recognizes 2 stroke characters, while touching the relevant area while releasing the thumb. It is to recognize two characters.

3가획 문자 인식은 5개 손가락을 모두 펴서 터치하면 인식하도록 하면 된다.3 stroke character recognition can be recognized by spreading all five fingers.

이와 같이, 신체의 일부를 소정 영역으로 나누고 해당 영역에 손가락의 형상으로 지시하면 이를 인식할 수 있도록 서로 약속하면 청각장애인이나 사고로 말을 할 수 없는 환자들의 경우에도 의사 소통을 할 수 있다.As such, when a part of the body is divided into predetermined regions and the corresponding regions are instructed in the shape of a finger, they can communicate with each other even if the hearing impaired person or the patient who cannot speak by accident.

이는 일반인도 본 발명의 소통이 가능한 문자 입력 장치 및 방법을 평소에도 동일한 원리로 사용하기 때문에 기존의 수화보다도 보다 쉽게 서로 의사 소통을 할 수 있다.This means that even the general public can communicate with each other more easily than the conventional sign language because the character input device and method of the present invention can be used in the same principle.

상술한 바와 같이 본 발명에서의 문자표시유닛은 일정 영역으로 분할할 수 있는 피사체면 모두 가능하다. 예를 들면 머리, 몸통, 손바닥 등 신체뿐만이 아니라, 책, 책상, 운전대, 등 일정 영역을 분할할 수 있는 피사체면 모두 가능하다.As described above, the character display unit in the present invention can be any object that can be divided into a predetermined area. For example, not only a body such as a head, a torso, a palm, but also a subject that can divide a certain area such as a book, a desk, a steering wheel, and the like can be used.

특히 뉴게릭병이나 사고로 말을 못하거나 손을 쓸 수 없는 사람들도 본 발명의 소통이 가능한 문자 입력 장치 및 방법을 사용할 수 있다.In particular, people who cannot speak or use their hands due to New Gehrig's disease or accidents can use the character input device and method for communication of the present invention.

예를 들어 눈동자로 말하는 방법(눈동자말)과 다른 하나는 혓바닥으로 말하는 방법(입술말)을 사용하는 것이다.For example, speaking with the pupil (the pupil) is different from speaking with the tongue (lip).

즉, 눈과 입을 9개의 영역으로 나누어 문자표시유닛으로 사용하고 눈동자와 입술을 영역지시장치로 사용하는 것이다.That is, the eyes and mouth are divided into nine areas and used as a character display unit, and the eyes and lips are used as area indicating device.

일례로, 눈의 경우 눈동자 모양을 상하좌우모양과 각각 사시처럼 위아래로 쳐다보면 눈동자의 위치를 9개로(정위치포함) 만들고, 입의 경우 입의 모양을 상하좌우모양과 혓바닥으로 위아래로 터치하여 입술의 위치를 9개로 만들 수 있는 것이다.For example, in the case of eyes, when looking up and down and up and down like the strabismus, the eyes are made into nine positions (including the correct position), and in the case of the mouth, the shape of the mouth is touched up and down and up and down and to the tongue. You can make nine lip positions.

보다 구체적으로 눈의 경우 위 눈썹의 좌측, 중앙, 우측 그리고 눈을 뜬 상태의 중앙을 기준으로 좌측, 중앙, 우측 그리고 아래 눈썹의 좌측, 중앙, 우측으로 분할하고, 입의 경우 위 입술의 좌측, 중앙, 우측 그리고 입을 벌린 상태에서 중앙을 기준으로 좌측, 중앙, 우측 그리고 아래 입술의 좌측, 중앙, 우측으로 분할하는 것이다.More specifically, the eyes are divided into left, center, right, and left, center, and right of the lower eyebrows based on the left, middle, right, and center of the open eyebrows. With the center, right and mouth open, it is divided into left, center, right, and left, center, and right lip from the center.

이렇게 분할된 영역에 본 발명에서처럼 각 영역에 복수 개의 문자를 배정하여 소통하는 것이다.In this divided area, a plurality of characters are assigned to each area to communicate with each other as in the present invention.

이 경우 글자표시 중 가획을 할 때는 9개 위치에서 눈의 경우는 눈의 깜박임 횟수로, 혀의 경우 혀를 날름거려서 해당 영역에 배정된 가획돈 복수 개의 문자 중 소정 문자를 선택할 수 있는 것이다.In this case, when capturing the character display, the eye blinks at nine positions, and the tongue flutters the tongue to select a predetermined character among a plurality of capturing characters assigned to the corresponding area.

또한, 자음과 모음의 구분은 눈의 경우 통상의 경우 자음을 나타내고 눈을 질끈감았다가 뜨면서 보이는 눈동자 위치로 모음을 나타내는 방식을 사용할 수 있으며, 입술은 입을 다문 상태에서 혀로 표시하면 자음을 나타내고 입을 벌린 상태에서 혀로 표시하면 모음을 선택하도록 할 수 있다.In addition, the distinction between the consonants and the vowels can be used in the case of the eyes in the normal way, showing the vowels in the position of the eyes visible while the eyes are closed, and the lip shows the consonants when the mouth is closed and the tongue is open. Marking with the tongue allows you to select a vowel.

그리고, 영어와 숫자를 표시할 경우에는 눈동자 말은 눈을 질끈 두번 감은 뒤 말하기 시작하면 영어로 인식하게 하고 눈을 세번 질끈 감은 뒤 말하기 시작하면 숫자로 인식하게 하고, 입술 말은 입을 두번 벌린뒤 말하면 영어를 인식하게 하고 세번 벌린뒤 말하면 숫자를 인식하게 하면 되는 것이다.And when English and numbers are displayed, the eyes are closed twice and then the eyes are recognized in English, and the eyes are closed three times, and then the eyes are recognized as numbers, and the lips are opened twice. If you speak English and open it three times, you can recognize numbers.

이와 같이 본 발명은 문자 판과 카메라를 결합한 문자입력 방식으로, 문자판을 9개의 영역으로 나누고, 각 영역위에 자음과 모음을 함께 배치한 다음, 배치된 문자는 손가락으로 터치를 하고 문자판의 영역, 손가락 위치, 손가락 모양을 카메라가 구분하여 문자로 인식하고 인식된 문자는 입력 또는 표시되도록 하는 것이다.
As described above, the present invention is a text input method combining a letter board and a camera, and divides the letter board into nine areas, arranges consonants and vowels together on each area, and then touches the placed letters with a finger and then touches the area of the letter board. The camera recognizes the position and the shape of the finger as characters and the recognized characters are input or displayed.

이상에서 본 발명은 기재된 구체예에 대하여 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허 청구범위에 속함은 당연한 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art.

110 : 문자표시유닛 120 : 영역지시장치
130 :영상입력장치 140 : 제어부
142 : 메모리 150 : 표시장치
110: character display unit 120: area indicating device
130: video input device 140: control unit
142 memory 150 display device

Claims (11)

삭제delete 삭제delete 삭제delete 삭제delete (a)피사체를 하나 이상의 영역으로 분할하고 상기 분할된 영역에 각각 문자입력에 필요한 자음, 모음, 또는 알파벳 중 어느 하나 이상의 문자를 복수 개 배정하는 단계;
(b)터치되는 상기 피사체의 영역별 위치를 영상으로 입력받는 단계;
(c)상기 터치되는 해당 영역에 배정된 문자를 인식하는 단계;및
(d)상기 (c)단계에서 인식된 문자를 표시하는 단계;
를 포함하여 구성되는 소통이 가능한 문자 입력 방법.
(a) dividing a subject into one or more regions and assigning a plurality of characters of at least one of consonants, vowels, and alphabets required for character input to each of the divided regions;
(b) receiving a location of each touched area of the subject as an image;
(c) recognizing a character assigned to the touched region; and
(d) displaying the characters recognized in the step (c);
Character input method that can be configured to include a communication.
제 5항에 있어서,
상기 (c)단계는
(c-1)상기 터치되는 해당 영역에 배정된 문자를 판단하는 단계;
(c-2)터치되는 손가락의 형상 또는 터치횟수를 인식하는 단계;및
(c-2)상기 손가락의 형상 또는 터치 횟수에 따라 해당 영역에 배정된 복수 개의 문자 중 어느 하나를 인식하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 소통이 가능한 문자 입력 방법.
6. The method of claim 5,
Step (c) is
(c-1) determining a character assigned to the touched region;
(c-2) recognizing the shape of the touched finger or the number of touches; and
(c-2) recognizing any one of a plurality of characters assigned to a corresponding area according to the shape of the finger or the number of touches;
Character input method capable of communication, characterized in that configured to include.
제 6항에 있어서,
상기 피사체는 3x3의 9개 영역으로 분할하여 각각의 영역에 복수 개의 문자를 배정하도록 한 것을 특징으로 하는 소통이 가능한 문자 입력 방법.
The method according to claim 6,
The subject may be divided into nine regions of 3x3 to allocate a plurality of characters to each region.
제 7항에 있어서,
상기 피사체가 신체의 얼굴인 경우에는
상단 제1영역에 우측눈썹을 배정하고 제2영역에 아미를 제3영역은 좌측눈썹을 배정하고 중단의 제4영역에는 우측광대뼈를 제5영역에는 코를 제6영역에는 좌측광대뼈를 배정하고 하단의 제7영역에는 우측턱을 제8영역에는 입을 그리고 제9영역에는 좌측턱을 배정한 것을 특징으로 하는 소통이 가능한 문자 입력 방법.
8. The method of claim 7,
If the subject is a face of the body
Allocate right eyebrows in the first area, ami in the second area, and left eyebrows in the third area, right cheekbones in the fourth area of the middle, nose in the fifth area, and left cheekbones in the sixth area. And a right jaw in the seventh region, a mouth in the eighth region, and a left jaw in the ninth region.
제 7항에 있어서,
상기 피사체가 신체의 가슴인 경우에는
상단 제1영역을 우측어깨로 배정하고 제2영역을 목으로 제3영역은 좌측어깨로 배정하고 중단의 제4영역에는 우측가슴을 제5영역에는 명치를 제6영역에는 좌측가슴을 배정하고 하단의 제7영역에는 우측옆구리를 제8영역에는 배꼽을 그리고 제9영역에는 좌측옆구리를 배정한 것을 특징으로 하는 소통이 가능한 문자 입력 방법.
8. The method of claim 7,
If the subject is the chest of the body
Assign the first area to the right shoulder, the second area to the neck, the third area to the left shoulder, the right chest for the fourth area of the middle, the left chest for the fifth area, and the left chest for the sixth area. The seventh region of the right side of the copper, the eighth region of the navel and the ninth region of the left side of the copper is assigned character input method.
제 7항에 있어서,
상기 피사체가 신체의 눈인 경우에는
상단 제1영역을 위 눈썹의 우측을 배정하고 제2영역을 위 눈썹의 중앙을 제3영역은 위 눈썹의 좌측을 배정하고 제4 내지 제6영역에는 눈을 뜬 상태의 우측, 중앙, 좌측을 배정하고 제7 내지 제9영역에는 아래 눈썹의 우측, 중앙, 좌측을 배정한 것을 특징으로 하는 소통이 가능한 문자 입력 방법.
8. The method of claim 7,
If the subject is the eyes of the body
The upper first area is assigned to the right side of the upper eyebrow, the second area is assigned to the center of the upper eyebrow, and the third area is assigned to the left side of the upper eyebrow, and the right, center, and left sides of the eyes are opened in the fourth to sixth areas. Character assignment method for communication, characterized in that assigned to the right, center, left side of the lower eyebrows to the seventh to ninth region.
제 7항에 있어서,
상기 피사체가 신체의 입인 경우에는
상단 제1영역을 위 입술의 우측을 배정하고 제2영역을 위 입술의 중앙을 제3영역은 위 입술의 좌측을 배정하고 제4 내지 제6영역에는 입을 벌린 상태의 우측, 중앙, 좌측을 배정하고 제7 내지 제9영역에는 아래 입술의 우측, 중앙, 좌측을 배정한 것을 특징으로 하는 소통이 가능한 문자 입력 방법.














8. The method of claim 7,
If the subject is the mouth of the body
The upper first area is assigned to the right side of the upper lip, the second area is assigned to the center of the upper lip, and the third area is assigned to the left side of the upper lip. And the seventh to ninth regions are assigned the right side, the center, and the left side of the lower lip.














KR1020110027257A 2011-03-26 2011-03-26 Communication character display and input method having character display unit KR101239576B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110027257A KR101239576B1 (en) 2011-03-26 2011-03-26 Communication character display and input method having character display unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110027257A KR101239576B1 (en) 2011-03-26 2011-03-26 Communication character display and input method having character display unit

Publications (2)

Publication Number Publication Date
KR20120108871A KR20120108871A (en) 2012-10-05
KR101239576B1 true KR101239576B1 (en) 2013-03-05

Family

ID=47280414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110027257A KR101239576B1 (en) 2011-03-26 2011-03-26 Communication character display and input method having character display unit

Country Status (1)

Country Link
KR (1) KR101239576B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032699A (en) * 2008-09-18 2010-03-26 동명대학교산학협력단 The system controled a action of the display device, based a gesture information recognition of the user

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032699A (en) * 2008-09-18 2010-03-26 동명대학교산학협력단 The system controled a action of the display device, based a gesture information recognition of the user

Also Published As

Publication number Publication date
KR20120108871A (en) 2012-10-05

Similar Documents

Publication Publication Date Title
EP2933709A2 (en) Haptic information management method and electronic device supporting the same
US20150242120A1 (en) Data input peripherals and methods
US20130033447A1 (en) Written character inputting device and method
Vatavu Visual impairments and mobile touchscreen interaction: state-of-the-art, causes of visual impairment, and design guidelines
Watanabe et al. Advantages and drawbacks of smartphones and tablets for visually impaired people——analysis of ICT user survey results——
CN104808807A (en) Method and device for Chinese phonetic input
US11099660B2 (en) User interface for digital ink modification
US20230195306A1 (en) Software for keyboard-less typing based upon gestures
Farooq et al. A comparison of hardware based approaches for sign language gesture recognition systems
JP2017509080A (en) Kanji input device, kanji input method, and kanji search method using the same
TWI634438B (en) Integrated program to input chinese
US20200168121A1 (en) Device for Interpretation of Digital Content for the Visually Impaired
CN114327233A (en) Haptic interaction system, method and storage medium
KR101543189B1 (en) Letter board for Augmentalive and Atternative Commnunication
CN104714650A (en) Information input method and information input device
Franco et al. Augmented object selection through smart glasses
KR101239576B1 (en) Communication character display and input method having character display unit
Modanwal et al. Utilizing gestures to enable visually impaired for computer interaction
KR101410667B1 (en) Terminal and method for input character using look and pick thereof
KR102065532B1 (en) Eye Recognition Key Board for Korean Alphabet Input
JP6393435B1 (en) Character string input system and method
Yang et al. TapSix: A Palm-Worn Glove with a Low-Cost Camera Sensor that Turns a Tactile Surface into a Six-Key Chorded Keyboard by Detection Finger Taps
US20210042029A1 (en) English input keyboard for severe patient
EP3021231A1 (en) Method for providing sign image search service and sign image search server used for same
JP6861585B2 (en) Communication device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee