KR100803200B1 - Information input apparatus and method using joint angle of body - Google Patents

Information input apparatus and method using joint angle of body Download PDF

Info

Publication number
KR100803200B1
KR100803200B1 KR1020010041560A KR20010041560A KR100803200B1 KR 100803200 B1 KR100803200 B1 KR 100803200B1 KR 1020010041560 A KR1020010041560 A KR 1020010041560A KR 20010041560 A KR20010041560 A KR 20010041560A KR 100803200 B1 KR100803200 B1 KR 100803200B1
Authority
KR
South Korea
Prior art keywords
information
sensing
unit
finger
angle
Prior art date
Application number
KR1020010041560A
Other languages
Korean (ko)
Other versions
KR20030006020A (en
Inventor
박태식
이상국
이광운
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020010041560A priority Critical patent/KR100803200B1/en
Publication of KR20030006020A publication Critical patent/KR20030006020A/en
Application granted granted Critical
Publication of KR100803200B1 publication Critical patent/KR100803200B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items

Abstract

신체의 관절 각도를 이용한 정보 입력 장치 및 방법이 개시된다. 이 장치는, 다수개의 정보들중 적어도 하나를 선택할 때 가변되는 사용자의 신체의 관절 각도를 검출하고, 검출된 관절 각도로부터 사용자가 선택한 적어도 하나의 정보를 결정하는 것을 특징으로 한다. 그러므로, 평면적으로 또는 공간적으로 선택된 정보를 손가락의 관절 각도를 이용하여 신속하고 편리하게 입력할 수 있는 효과를 갖는다.An information input apparatus and method using a joint angle of a body are disclosed. The apparatus is characterized in that it detects the joint angles of the user's body that vary when selecting at least one of the plurality of pieces of information and determines at least one piece of information selected by the user from the detected joint angles. Therefore, it is possible to quickly and conveniently input the information selected in a planar or spatially manner by using the joint angle of the finger.

Description

신체의 관절 각도를 이용한 정보 입력 장치 및 방법{Information input apparatus and method using joint angle of body}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information input apparatus and method using a joint angle of a body,

도 1은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 장치 및 방법을 설명하기 위한 도면이다.1 is a view for explaining an information input apparatus and method using a joint angle of a finger according to the present invention.

도 2는 센싱부에서 센싱되는 관절 각도를 설명하기 위한 손가락을 나타내는 도면이다.FIG. 2 is a view showing a finger for explaining the angle of the joint sensed by the sensing unit. FIG.

도 3은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 방법을 설명하기 위한 플로우차트이다.FIG. 3 is a flowchart for explaining an information input method using a joint angle of a finger according to the present invention.

도 4는 도 3에 도시된 정보 입력 방법을 수행하는 본 발명에 의한 정보 입력 장치의 바람직한 일 실시예의 블럭도이다.4 is a block diagram of a preferred embodiment of the information input apparatus according to the present invention for performing the information input method shown in FIG.

도 5는 도 4에 도시된 제1 센싱기의 본 발명에 의한 일 실시예의 외관을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an appearance of an embodiment of the first sensing device of FIG. 4 according to the present invention.

도 6은 도 5에 도시된 제1 센싱기의 등가 회로도이다.6 is an equivalent circuit diagram of the first sensing unit shown in FIG.

도 7은 도 4에 도시된 제1 센싱기의 본 발명에 의한 다른 실시예의 외관을 설명하기 위한 도면이다.FIG. 7 is a view for explaining an appearance of another embodiment of the first sensing device shown in FIG. 4 according to the present invention.

도 8 (a), (b) 및 (c)들은 도 4에 도시된 제1 센싱기의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면이다. 8 (a), (b) and (c) are views for explaining the appearance of another embodiment of the first sensing device shown in FIG. 4 according to the present invention.                 

도 9는 도 4에 도시된 제1 센싱기의 본 발명에 의한 또 다른 실시예의 블럭도이다.FIG. 9 is a block diagram of another embodiment of the first sensing device of FIG. 4 according to the present invention.

도 10은 도 4에 도시된 제1 센싱기의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면이다.FIG. 10 is a view for explaining the appearance of another embodiment of the first sensing device of FIG. 4 according to the present invention.

도 11은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 일 실시예를 설명하기 위한 플로우차트이다.FIG. 11 is a flowchart illustrating operation 44 of FIG. 3 according to an embodiment of the present invention.

도 12는 도 11에 도시된 제44A 단계를 수행하는 도 4에 도시된 정보 선택부의 본 발명에 의한 바람직한 실시예의 블럭도이다.FIG. 12 is a block diagram of a preferred embodiment of the information selector shown in FIG. 4 according to the present invention which performs step 44A shown in FIG.

도 13은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 다른 실시예를 설명하기 위한 플로우차트이다.FIG. 13 is a flowchart for explaining another embodiment of the present invention in operation 44 shown in FIG. 3. FIG.

도 14는 도 13에 도시된 제44B 단계를 수행하는 도 4에 도시된 정보 선택부의 본 발명에 의한 실시예의 블럭도이다.FIG. 14 is a block diagram of an embodiment of the information selector shown in FIG. 4 according to the present invention performing step 44B shown in FIG.

본 발명은 개인용 컴퓨터, 개인용 디지탈 어시스턴스(PDA:Personal Digital Assitant) 또는 셀룰러 폰(cellular phone)등과 같이 외부로부터 정보를 입력하는 정보 입력 장치에 관한 것으로서, 특히 외부의 정보를 신체의 관절 각도를 이용하여 입력할 수 있는 정보 입력 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information input apparatus for inputting information from outside such as a personal computer, a personal digital assistant (PDA) or a cellular phone, The present invention relates to an information input device and a method for inputting information.

종래의 정보 입력 장치들중 하나는 현재 사람들에게 가장 익숙한 쿼리(QWERTY) 키보드이다. 그러나, 근래에는 쿼리 키보드 대신에, 사용자의 편리성과 휴대성을 고려하여 가상적으로 소프트웨어적으로 디스플레이되는 가상 키보드를 사용한다. 여기서, 가상 키보드는 1998년 7월 15일자로 "가상 키보드를 구비한 컴퓨터 시스템"이라는 제목으로 공개된 실용 신안 출원 번호 실1996-033413에 개시되어 있다. 개시된 실용 신안을 살펴보면, 모니터상에 팝업 디스플레이되는 가상 키보드상의 키를 선택하기 위해서 마우스(mouse)나 터치 패드(touch pad)를 사용한다. 따라서, 장시간에 걸쳐 키들을 선택하여야 하는 경우, 사용자가 키들을 입력하는 과정이 매우 번거롭고 피곤할 뿐만 아니라 키를 선택하는 시간도 길어지는 문제점들이 있다.One of the conventional information input devices is a QWERTY keyboard most familiar to people at present. However, in recent years, a virtual keyboard that is virtually displayed in software is used in consideration of convenience and portability of a user, instead of a query keyboard. Here, the virtual keyboard is disclosed in Utility Model Application No. 1996-033413, titled " Computer System with Virtual Keyboard "dated Jul. 15, 1998. In the disclosed utility model, a mouse or a touch pad is used to select a key on a virtual keyboard that is displayed on a pop-up display on a monitor. Therefore, when keys are to be selected over a long period of time, there are problems in that the process of inputting keys by the user is very cumbersome and tiresome, and also the time for selecting keys is lengthened.

이러한 문제점을 해결하기 위한 종래의 다른 정보 입력 장치는, 다수개의 2축 가속도 센서들을 부착한 장갑을 이용하여 평면적으로 외부의 사용자로부터 정보를 입력한다. 즉, 손가락 끝에 2축의 가속도 센서를 부착하고, 평면상에서 손가락을 움직이면, 손가락의 운동에 의한 가속도 신호가 출력된다. 이 때, 각각의 손가락에서 검출된 2축의 가속도 신호를 두 번 적분하면 평면상에서 그 손가락의 위치 정보를 파악할 수 있다. 이 때, 파악된 손가락의 위치 정보를 가상 키보드상의 키 위치와 비교함으로써 사용자가 입력하고자 하는 정보를 선택한다. 그러나, 이러한 종래의 정보 입력 장치는 가속도 센서가 갖는 오차 및 중력 가속도 등의 영향으로 인하여, 가속도 센서로부터 출력되는 가속도 신호에 에러가 발생하는 문제점이 있다. 즉, 에러를 갖는 가속도 신호를 두 번 적분하여 얻어지는 손가락의 위치 정보는 정확하지 않으며 발산할 수도 있어, 선택된 입력 정보의 신뢰성을 확보하기 어 렵다. 더우기, 이러한 종래의 정보 입력 장치는 평면적으로만 정보를 입력할 수 있으며 공간적으로는 정보를 입력할 수 없는 한계를 갖는다.In order to solve such a problem, another conventional information input device inputs information from an external user in a plan view using a glove having a plurality of two-axis acceleration sensors attached thereto. That is, when a two-axis acceleration sensor is attached to the fingertip and a finger is moved on the plane, an acceleration signal due to the motion of the finger is output. At this time, if the acceleration signals of the two axes detected by the respective fingers are integrated twice, the position information of the finger can be grasped on the plane. At this time, the position information of the detected finger is compared with the key position on the virtual keyboard to select information to be input by the user. However, in such a conventional information input apparatus, there is a problem that an error occurs in the acceleration signal outputted from the acceleration sensor due to the influence of the error and gravity acceleration of the acceleration sensor. That is, the positional information of the finger obtained by integrating the acceleration signal having the error twice is not accurate and can diverge, and it is difficult to secure the reliability of the selected input information. Moreover, such a conventional information input apparatus can input information only in a plane, and has a limitation that information can not be input spatially.

이러한 한계를 극복하며 공간적으로 정보를 입력할 수 있는 종래의 또 다른 정보 입력 장치가 미국 특허 번호 US4,414,537에 "Digital Data Entry Glove Interface Device"라는 제목으로 개시되어 있다. 개시된 종래의 정보 입력 장치는 공간적으로 선택된 정보를 인식하기 위해 손가락들간의 접촉을 감지하는 센서, 손 관절의 변화를 감지하는 센서 및 손의 움직임을 감지하는 센서를 부착한 장갑을 이용한다. 이 때, 장갑에 부착된 센서들에서 감지된 손가락들간의 접촉, 손 관절의 변화 및 손의 움직임으로부터 사용자가 공간적으로 형성한 손의 모양을 검출하고, 검출된 손의 전체적인 모양이 미리 정의된 모양들중 어느 모양과 일치하는가를 검사하며, 검사된 결과를 이용하여 사용자가 선택한 정보를 인식한다. 그러나, 이러한 종래의 정보 입력 장치는 사용자로 하여금 수화할 때와 마찬가지로 미리 정의된 형태의 손 모양만으로 정보를 선택할 것을 요구한다. 그러므로, 입력 정보 선택법을 익히기 위해 사용자는 많은 시간과 노력을 들여야하는 문제점이 있다.Another conventional information input device capable of spatially inputting information to overcome these limitations is disclosed in U.S. Patent No. 4,414,537 entitled " Digital Data Entry Glove Interface Device ". The disclosed conventional information input apparatus uses a glove having a sensor for detecting the contact between the fingers, a sensor for detecting the change of the hand joint, and a sensor for sensing the movement of the hand in order to recognize the spatially selected information. At this time, the shape of the hand spatially formed by the user is detected from the contact between the fingers sensed by the sensors attached to the glove, the change of the hand joint, and the motion of the hand, , And recognizes the information selected by the user using the checked result. However, these conventional information input devices require the user to select information in a hand shape of a predefined type just as when hydrating. Therefore, there is a problem that the user has to spend a lot of time and effort in order to learn input information selection method.

본 발명이 이루고자 하는 기술적 과제는, 평면적으로 또는 공간적으로 선택된 정보를 신체의 관절 각도를 이용하여 신속하고 편리하게 입력할 수 있는 신체의 관절 각도를 이용한 정보 입력 장치를 제공하는 데 있다.An object of the present invention is to provide an information input device using a joint angle of a body that can input information selected in a planar or spatially manner quickly and conveniently using a joint angle of the body.

본 발명이 이루고자 하는 다른 기술적 과제는, 상기 신체의 관절 각도를 이용한 정보 입력 장치에서 수행되는 정보 입력 방법을 제공하는 데 있다.According to another aspect of the present invention, there is provided an information input method performed by an information input apparatus using the joint angles of the body.

상기 과제를 이루기 위한 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치는, 다수개의 정보들중 적어도 하나를 선택할 때 가변되는 사용자의 신체의 관절 각도를 검출하고, 검출된 상기 관절 각도로부터 상기 사용자가 선택한 적어도 하나의 정보를 결정하는 것이 바람직하다.According to an aspect of the present invention, there is provided an information input apparatus using a joint angle of a human body, the apparatus comprising: a joint angle detecting unit that detects a joint angle of a user's body that varies when selecting at least one of a plurality of pieces of information, It is desirable to determine at least one piece of information selected.

상기 다른 과제를 이루기 위한 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 방법은, 다수개의 정보들중 적어도 하나를 선택할 때 가변되는 사용자의 신체의 관절 각도를 구하고, 구해진 상기 각도를 이용하여 상기 사용자가 선택한 적어도 하나의 정보를 결정하는 것이 바람직하다.According to another aspect of the present invention, there is provided a method of inputting information using a joint angle of a human body, the method comprising: obtaining a joint angle of a user's body that varies when selecting at least one of a plurality of pieces of information; It is desirable to determine at least one piece of information selected.

이하, 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 방법 및 장치를 다음과 같이 살펴본다.Hereinafter, a method and apparatus for inputting information using the joint angles of the body according to the present invention will be described as follows.

본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치 및 방법은, 사용자가 다수개의 정보들중에서 적어도 하나를 선택하고자 신체의 관절을 구부릴 때, 사용자의 신체의 가변되는 관절의 각도를 검출하고, 검출된 관절 각도로부터 사용자가 선택한 적어도 하나의 정보를 결정한다. 이 때, 다수개의 정보들은 사용자에게 디스플레이되는 정보 화면에 표시될 수 있다. 따라서, 사용자는 정보 화면에 표시된 정보들중 적어도 하나를 신체를 구부려서 선택할 수 있다.An apparatus and method for inputting information using a joint angle of a human body according to the present invention is characterized in that when a user bends a joint of the body in order to select at least one of a plurality of pieces of information, And determines at least one piece of information selected by the user from the joint angles. At this time, a plurality of pieces of information can be displayed on the information screen displayed to the user. Accordingly, the user can select at least one of the information displayed on the information screen by bending the body.

본 발명에 의하면, 정보를 선택하기 위해 구부려지는 관절을 포함하는 신체는 손가락, 발가락, 팔, 다리 또는 목 등과 같이 신체에서 관절을 포함하는 어느 부분이 될 수도 있다. 왜냐하면, 정보를 선택하고자 하는 사용자가 손과 발을 사용 할 수 없는 장애인일 경우, 손과 발 이외에 관절을 갖는 신체의 다른 부위의 관절을 움직여서 장애인도 원하는 정보를 선택할 수 있도록 하기 위함이다.According to the present invention, a body including a joint that is bent to select information may be any portion including a joint in the body, such as a finger, a toe, an arm, a leg, or a neck. This is because, if the user who wants to select information is a disabled person who can not use his / her hands and feet, he / she can move the joints of other parts of the body having joints besides the hands and feet so that the disabled can also select the desired information.

이하, 본 발명의 이해를 돕기 위해, 사용자의 신체는 손가락이고, 다수개의 정보들은 디스플레이되는 정보 화면에 표시된다고 가정하면서, 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 방법과 그 방법을 수행하는 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, in order to facilitate understanding of the present invention, it is assumed that the user's body is a finger, and that a plurality of pieces of information are displayed on a displayed information screen, a method of inputting information using a joint angle of a body according to the present invention, The configuration and operation of the information input apparatus using the joint angles of the body according to the present invention will now be described with reference to the accompanying drawings.

도 1은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 장치 및 방법을 설명하기 위한 도면으로서, 모니터(10)와 센싱부(20)로 구성된다.FIG. 1 is a view for explaining an apparatus and method for inputting information using a joint angle of a finger according to the present invention, and includes a monitor 10 and a sensing unit 20. FIG.

도 2는 센싱부(20)에서 센싱되는 관절 각도(θ)를 설명하기 위한 손가락(22)을 나타낸다.Fig. 2 shows a finger 22 for explaining the joint angle? Sensed by the sensing unit 20. Fig.

도 1 및 2를 참조하면, 사용자는 모니터(10)를 통해 디스플레이되는 정보 화면을 보면서 다수개의 정보들중 입력하기를 원하는 정보를 선택하기 위해 손가락(22)을 아래 또는 윗 방향(32)으로 구부린다. 이 때, 본 발명에 의한 정보 입력 장치는 센싱부(20)를 이용하여 손가락(22)의 구부림을 센싱하고, 센싱된 결과로부터 손가락(22)의 관절 각도(θ)를 검출하고, 검출된 관절 각도(θ)이용하여 사용자가 입력하기를 원하는 정보를 선택한다. 여기서, 정보 화면은 소프트웨어적으로 디스플레이되어 다수개의 정보들을 표시하며, 가상 키보드(12) 형태로 표현될 수도 있고, 가상 마우스(16) 형태로 표현될 수도 있고 또는 가상 리모콘(18) 형태로 표현될 수도 있다. 만일, 정보 화면이 가상 키보드(12) 형태로 표현될 때, 사용 자에 의해 선택되는 정보는 키 데이타에 해당한다. 그 밖에, 본 발명에 의하면 정보 화면은 오락, 의료 진단 또는 가상 현실등을 위해 사용자에 의해 미리 만들어진 소정의 패턴을 가질 수 있다.Referring to FIGS. 1 and 2, the user views the information screen displayed on the monitor 10 and bends the finger 22 in the downward direction 32 or the upward direction 32 to select information to be input among a plurality of pieces of information . At this time, the information input device according to the present invention senses the bending of the finger 22 using the sensing unit 20, detects the joint angle? Of the finger 22 from the sensed result, By using the angle [theta], information that the user desires to input is selected. Here, the information screen may be displayed in software to display a plurality of pieces of information, may be expressed in the form of a virtual keyboard 12, a virtual mouse 16, or a virtual remote controller 18 It is possible. If the information screen is expressed in the form of a virtual keyboard 12, the information selected by the user corresponds to the key data. In addition, according to the present invention, the information screen may have a predetermined pattern previously created by the user for entertainment, medical diagnosis, virtual reality, or the like.

도 3은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 방법을 설명하기 위한 플로우차트로서, 손가락이나 손의 움직임으로부터 필요한 정보를 산출하는 단계(제40 및 제42 단계들) 및 산출된 정보로부터 찾은 1차원적인 위치에 존재하는 정보를 선택하는 단계(제44 단계)로 이루어진다.FIG. 3 is a flowchart for explaining a method of inputting information using a joint angle of a finger according to the present invention, which includes steps (steps 40 and 42) of calculating necessary information from movement of a finger or a hand, And selecting information that exists in the one-dimensional position that has been found (operation 44).

도 4는 도 3에 도시된 정보 입력 방법을 수행하는 본 발명에 의한 정보 입력 장치의 바람직한 일 실시예의 블럭도로서, 센싱부(20A), 아날로그/디지탈 변환부(ADC:Analog to Digital Converter)(62), 신호 처리부(64), 인터페이스부(66) 및 정보 선택부(68)로 구성된다.FIG. 4 is a block diagram of a preferred embodiment of the information input apparatus according to the present invention for performing the information input method shown in FIG. 3, and includes a sensing unit 20A, an analog to digital converter (ADC) 62, a signal processing unit 64, an interface unit 66, and an information selecting unit 68.

도 4에 도시된 센싱부(20A)는 도 1에 도시된 센싱부(20)의 실시예로서, 제2 ∼ 제6 센싱기들(82, 84, 86, 88 및 90)중에서 적어도 하나 이상과 제1 센싱기(80)로 구성된다. 여기서, 제1, 제2, 제3, 제4, 제5 및 제6 센싱기들(80, 82, 84, 86, 88 및 90) 각각은 장갑 형태로 손과 손가락에 씌워지는 부재에 부착될 수 있다.The sensing unit 20A shown in FIG. 4 is an embodiment of the sensing unit 20 shown in FIG. 1 and includes at least one of the second to sixth sensing units 82, 84, 86, 88, and 90, And a first sensing unit 80. Here, each of the first, second, third, fourth, fifth, and sixth sensing devices 80, 82, 84, 86, 88 and 90 is attached to a member .

먼저, 제1 센싱기(80)는 사용자가 정보 화면을 보면서 정보 화면상에 존재하는 정보들중에서 원하는 정보를 선택하기 위해 적어도 하나 이상의 손가락(22)을 구부릴 때, 손가락(22)의 구부림을 센싱하고, 센싱된 결과를 출력한다(제40 단계). 여기서, 제1 센싱기(80)로부터 출력되는 센싱된 결과는 제1 센싱기(80)가 구현되는 모습에 따라 아날로그 또는 디지탈 형태가 될 수 있다. 만일, 제1 센싱기(80)로부 터 출력되는 센싱된 결과가 아날로그 형태인 경우, 도 4에 도시된 바와 같이 센싱부(20A)와 신호 처리부(64) 사이에 ADC(62)가 부가적으로 마련된다. ADC(62)는 센싱부(20A)로부터 출력되는 적어도 하나 이상의 센싱된 결과를 디지탈 형태로 변환하고, 변환된 결과를 신호 처리부(64)로 출력한다. 예를 들면, ADC(62)는 센싱부(20A)로부터 출력되는 아날로그 형태의 전압을 펄스 폭 변조(PWM:Pulse Width Modulation)하고, 펄스 폭 변조된 결과를 신호 처리부(64)로 출력할 수 있다.First, the first sensing unit 80 senses the bending of the finger 22 when the user bends the at least one finger 22 to select desired information from the information existing on the information screen while viewing the information screen, And outputs the sensed result (operation 40). Here, the sensed result output from the first sensing device 80 may be analog or digital depending on the manner in which the first sensing device 80 is implemented. If the sensed result output from the first sensing unit 80 is of an analog type, the ADC 62 may be additionally provided between the sensing unit 20A and the signal processing unit 64 as shown in FIG. . The ADC 62 converts at least one sensed result output from the sensing unit 20A into a digital form and outputs the converted result to the signal processing unit 64. [ For example, the ADC 62 may perform pulse width modulation (PWM) of an analog voltage output from the sensing unit 20A and output the result of the pulse width modulation to the signal processing unit 64 .

이하, 제1 센싱기(80)의 본 발명에 의한 바람직한 실시예들 각각의 구성 및 동작을 첨부된 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, the configuration and operation of each of the preferred embodiments of the first sensing device 80 according to the present invention will be described with reference to the accompanying drawings.

도 5는 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 일 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(90) 및 장갑(90)에 부착되는 제1 센싱기(100)로 구성된다.5 is a view for explaining the appearance of an embodiment of the present invention of the first sensing device 80 shown in Fig. 4, in which the glove 90 put on the finger 22 and the glove 90 And a first sensing unit 100.

도 5를 참조하면, 제1 센싱기(100)는 손가락(22)의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되어 손가락(22)을 위나 아래로 구부린 각도(θ)에 따라 저항을 가변시키고, 가변된 저항에 상응하는 레벨을 갖는 센싱된 결과를 출력하는 가변 저항으로 구현될 수 있다. 여기서, 손가락(22)의 한 쪽 마디 및 다른 쪽 마디는 도 5에 도시된 바와 같이 손가락(22) 끝으로부터 세 번째 마디(106) 및 두 번째 마디(102)가 될 수도 있고, 도 5에 도시된 바와 달리, 손가락(22) 끝으로부터 세 번째 마디(106) 및 첫 번째 마디(104)가 될 수도 있다.5, the first sensing device 100 is provided over one node and the other node of the finger 22 and varies the resistance according to the angle? That the finger 22 is bent upward or downward, And a variable resistor that outputs a sensed result having a level corresponding to the resistance of the resistor. Here, one node and the other node of the finger 22 may be the third node 106 and the second node 102 from the end of the finger 22 as shown in Fig. 5, It may be the third node 106 and the first node 104 from the end of the finger 22. [

이를 위해, 제1 센싱기(100)는 제1 고정 부재(94), 제1 유동 부재(92) 및 중 심축(96)으로 구현될 수 있다. 제1 고정 부재(94)는 손가락(22)의 한 쪽 마디에 부착되고, 제1 유동 부재(92)는 손가락의 다른 쪽 마디에 부착되며, 제1 고정 부재(94)와 제1 유동 부재(92)는 중심축(96)에 의해 서로 연결되어 연동 운동을 한다. 여기서, 손가락(22)이 아래 또는 위 방향(86)으로 구부려질 때, 제1 고정 부재(94)는 움직이지 않으나 제1 유동 부재(96)는 움직임을 알 수 있다. 따라서, 제1 유동 부재(92)가 움직임에 따라 제1 센싱기(100)는 다음과 같이 저항을 가변시킨다.To this end, the first sensing device 100 may be embodied as a first fixed member 94, a first flow member 92, and a central axis 96. The first fixing member 94 is attached to one node of the finger 22 and the first flow member 92 is attached to the other node of the finger and the first fixing member 94 and the first flow member 92 are connected to each other by a central shaft 96 to perform an interlocking motion. Here, when the finger 22 is bent in the downward or upward direction 86, the first fixing member 94 does not move but the first flow member 96 can see the movement. Accordingly, as the first flow member 92 moves, the first sensing unit 100 varies the resistance as follows.

도 6은 도 5에 도시된 제1 센싱기(100)의 등가 회로도로서, 저항들(R1 및 R2)로 구성된다.Fig. 6 is an equivalent circuit diagram of the first sensing device 100 shown in Fig. 5 and is composed of resistors R1 and R2.

도 6을 참조하면, 손가락(22)이 구부려지지 않고 곧게 펴진 상태에서, 저항들(R1 및 R2)은 동일한 값을 유지하고, 손가락(22)이 아래 방향으로 구부려짐에 따라 저항(R1)의 값과 저항(R2)의 값은 서로 달라진다. 그러므로, 손가락(22)이 구부려짐에 따라 출력단자 OUT2를 통해 출력되는 전압값은 변동한다. 결국, 도 5에 도시된 제1 센싱기(100)는 손가락(22)이 구부려짐에 따라 가변되는 레벨을 갖는 전압을 센싱된 결과로서 출력함을 알 수 있다.6, in a state in which the finger 22 is not bent and straightened, the resistors Rl and R2 maintain the same value, and as the finger 22 is bent downward, The value and the value of the resistance R2 are different from each other. Therefore, as the finger 22 is bent, the voltage value output through the output terminal OUT2 fluctuates. As a result, it can be seen that the first sensing device 100 shown in FIG. 5 outputs a voltage having a variable level as a result of sensing as the finger 22 is bent.

도 7은 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(118) 및 장갑(118)에 부착되는 제1 센싱기(140)로 구성된다.7 is a view for explaining the appearance of another embodiment of the present invention of the first sensing device 80 shown in Fig. 4, in which the glove 118 put on the finger 22 and the glove 118 attached to the glove 118 And a first sensing unit 140.

도 7을 참조하면, 제1 센싱기(140)는 손가락(22)의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되며 손가락(22)을 구부린 각도(θ)에 따라 커패시턴스를 가변시 키고, 가변된 커패시턴스에 상응하는 레벨을 갖는 센싱된 결과를 출력하는 가변 커패시터 즉, 트리머(trimmer) 커패시터로 구현될 수 있다. 여기서, 손가락(22)의 한 쪽 마디 및 다른 쪽 마디는 도 7에 도시된 바와 같이 손가락(22) 끝으로부터 세 번째 마디(110) 및 두 번째 마디(112)가 각각 될 수도 있고, 도 7에 도시된 바와 달리, 손가락(22) 끝으로부터 세 번째 마디(110) 및 첫 번째 마디(114)가 각각 될 수도 있다.7, the first sensing unit 140 is provided over one of the nodes and the other node of the finger 22 and varies the capacitance according to the bent angle? Of the finger 22, A trimmer capacitor that outputs a sensed result having a level corresponding to the capacitance. Here, the one node and the other node of the finger 22 may be the third node 110 and the second node 112 from the end of the finger 22, respectively, as shown in FIG. 7, The third node 110 and the first node 114 from the end of the finger 22 may be respectively.

이를 위해, 제1 센싱기(140)는 제2 고정 부재(122) 및 제2 유동 부재(120)로 구현될 수 있다. 제2 고정 부재(122)는 손가락(22)의 한 쪽 마디에 부착되며 부도체(124) 및 도체(126)를 갖고, 제2 유동 부재(120)는 손가락(22)의 다른 쪽 마디에 부착되며 부도체(128) 및 도체(130)를 갖는다. 여기서, 손가락(22)이 구부려짐에 따라 즉, 손가락(22)이 위 또는 아래 방향(116)로 움직임에 따라 제2 고정 부재(122)는 움직이지 않으나 제2 유동 부재(120)는 움직임을 알 수 있다. 따라서, 제2 고정 부재(122)의 도체(126)와 제2 유동 부재(120)의 도체(130)가 서로 마주보는 면적이 손가락(22)의 구부려짐에 따라 변하게 되며, 이러한 마주보는 면적의 변화로 인해 커패시턴스가 변한다. 이 때, 제1 센싱기(140)는 이러한 커패시턴스의 변화량에 상응하여 가변되는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.For this, the first sensing device 140 may be implemented with a second fixing member 122 and a second flow member 120. The second fastening member 122 is attached to one of the fingers 22 and has a non-conductor 124 and a conductor 126, and the second flow member 120 is attached to the other fingertip of the finger 22 An insulator 128 and a conductor 130. Here, as the finger 22 is bent, that is, the finger 22 moves in the up or down direction 116, the second fixing member 122 does not move, but the second flow member 120 moves Able to know. The area of the conductor 126 of the second fixing member 122 and the conductor 130 of the second flow member 120 facing each other is changed as the finger 22 is bent. The capacitance changes due to the change. At this time, the first sensing unit 140 outputs a voltage of an analog type having a variable level corresponding to the amount of change of the capacitance as a result of sensing.

도 8 (a), (b) 및 (c)들은 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(162) 및 장갑(162)에 부착되는 제1 센싱기(160)로 구성된다. 8 (a), 8 (b) and 8 (c) are views for explaining the appearance of another embodiment of the first sensing device 80 shown in FIG. 4 according to the present invention, And a first sensing unit 160 attached to the gloves 162 and the gloves 162.                     

도 8 (a), (b) 및 (c)들을 참조하면, 제1 센싱기(160)는 손가락(22)의 마디들중 어느 한 쪽에도 마련될 수 있으며, 손가락(22)을 구부린 각도를 센싱하고, 센싱된 결과를 출력하는 관성 센서로 구현될 수 있다. 여기서, 관성 센서(160)는 도 8 (a)에 도시된 바와 같이 손가락(22) 끝으로부터 세 번째 마디(170)에 부착될 수도 있고, 도 8 (b)에 도시된 바와 같이 손가락(22) 끝으로부터 두 번째 마디(172)에 부착될 수도 있고, 도 8 (c)에 도시된 바와 같이 손가락(22) 끝으로부터 첫 번째 마디(174)에 부착될 수도 있다. 이를 위해, 관성 센서(160)는 자이로 센서(미도시) 및 가속도 센서(미도시)로 구현될 수 있다. 만일, 관성 센서(160)가 자이로 센서로 구현될 경우, 관성 센서(160)는 손가락(22)이 위 또는 아래 방향(164)으로 구부려짐에 따라 가변되는 각속도를 검출하고, 검출된 각속도에 상응하는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다. 그러나, 관성 센서(160)가 가속도 센서로 구현될 경우, 관성 센서(160)는 손가락(22)이 위 또는 아래 방향(164)으로 구부려짐에 따라 가변되는 가속도를 검출하고, 검출된 가속도에 상응하는 레벨을 갖는 디지탈 또는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.Referring to FIGS. 8A, 8B, and 8C, the first sensing unit 160 may be provided on one of the nodes of the finger 22, and may sense the bent angle of the finger 22 And an inertial sensor for outputting the sensed result. Here, the inertial sensor 160 may be attached to the third node 170 from the end of the finger 22 as shown in Fig. 8 (a), and may be attached to the finger 22, as shown in Fig. 8 (b) May be attached to the second node 172 from the end and may be attached to the first node 174 from the end of the finger 22 as shown in Figure 8 (c). For this purpose, the inertial sensor 160 may be implemented with a gyro sensor (not shown) and an acceleration sensor (not shown). If the inertial sensor 160 is implemented as a gyro sensor, the inertial sensor 160 detects a varying angular velocity as the finger 22 is flexed in the up or down direction 164, As a result of sensing. However, when the inertial sensor 160 is implemented as an acceleration sensor, the inertial sensor 160 detects a variable acceleration as the finger 22 is flexed in the up or down direction 164, And outputs the sensed result as a digital or analog voltage.

도 9는 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 또 다른 실시예의 블럭도로서, 발광부(190), 회전 원판(192) 및 수광부(194)로 구성된다.FIG. 9 is a block diagram of another embodiment of the first sensing device 80 of FIG. 4 according to the present invention. The sensing device 80 includes a light emitting portion 190, a rotating disk 192, and a light receiving portion 194.

도 9를 참조하면, 회전 원판(192)은 손가락(22)이 구부려질 때 중심축(200)을 기준으로 시계나 반시계 방향(198)으로 회전하며 그의 외측에 복수개의 홈들(196)을 마련하고 있다. 이 때, 발광부(190)는 회전 원판(192)의 홈(196)에 빛 을 조사하고, 수광부(194)는 홈(196)을 통과한 빛을 수광하고, 수광된 빛을 전기적인 신호로 변환하며, 변환된 전기적인 신호를 센싱된 결과로서 출력단자 OUT3을 통해 출력한다. 예를 들면, 정보를 선택하고자 하는 사용자가 손가락(22)을 구부릴 때 회전 원판(192)은 시계 방향이나 반 시계 방향(198)으로 회전하며, 수광부(194)는 회전 원판(192)이 회전함에 따라 시간당 발생되는 펄스의 개수를 달리 갖는 디지탈 형태의 전기적인 신호를 출력단자 OUT3을 통해 출력한다. 따라서, 이 경우, 도 4에 도시된 ADC(62)는 필요하지 않게 된다. 도 9에 도시된 제1 센싱기는 회전 인코더(rotary encoder)의 구성 및 동작과 동일함을 알 수 있다.9, the rotary disk 192 rotates clockwise or counterclockwise 198 relative to the central axis 200 when the fingers 22 are bent and has a plurality of grooves 196 formed outside thereof . The light emitting unit 190 irradiates light to the groove 196 of the rotary disc 192. The light receiving unit 194 receives the light passing through the groove 196 and converts the received light into an electrical signal And outputs the converted electric signal through the output terminal OUT3 as a sensed result. For example, when the user who selects information bends the finger 22, the rotary disk 192 rotates clockwise or counterclockwise 198, and the light receiving unit 194 rotates the rotary disk 192 And outputs an electric signal of a digital form having a different number of pulses generated per time through the output terminal OUT3. Therefore, in this case, the ADC 62 shown in Fig. 4 is not necessary. It can be seen that the first sensing unit shown in FIG. 9 is the same as the construction and operation of a rotary encoder.

도 10은 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(210) 및 장갑(210)에 부착되는 제1 센싱기(230)로 구성된다.FIG. 10 is a view for explaining an appearance of another embodiment of the present invention of the first sensing device 80 shown in FIG. 4, in which the glove 210 and the glove 210, which are put on the finger 22, And a first sensing unit 230.

도 10을 참조하면, 제1 센싱기(230)는 자석(214) 및 자속 방향 측정부(212)로 구성된다. 여기서, 자석(214)은 손가락(22)의 한 쪽 마디에 마련되고, 자속 방향 측정부(212)는 손가락(22)의 다른 쪽 마디에서 자석(214)으로부터 발생되는 자속이 흐르는 방향으로 위치되어 자속이 흐르는 방향을 측정하고, 측정된 방향을 센싱된 결과로서 출력한다. 여기서, 손가락(22)의 한 쪽 마디는 손가락(22)의 바깥쪽 마디에 해당하고, 손가락(22)의 다른 쪽 마디는 손가락(22)의 안쪽 마디에 해당하는 것이 바람직하다. 왜냐하면, 자속 방향 측정부(212)의 출력은 ADC(62)와 유선으로 연결될 수 있으므로 움직이지 않은 안쪽 마디에 마련되는 것이 바람직하고, 자석(214)은 움직이는 바깥쪽 마디에 마련되는 것이 바람직하다. 이 때, 도 10에 도 시된 바와 같이 손가락(22)의 바깥 쪽 마디는 손가락(22) 끝으로부터 두 번째 마디(222)에 해당하고, 손가락(22)의 안 쪽 마디는 손가락(22)의 끝으로부터 세 번째 마디(220)에 해당할 수도 있고, 도 10에 도시된 바와 달리, 손가락(22)의 바깥 쪽 마디는 손가락(22)의 끝으로부터 첫 번째 마디(224)에 해당하고, 손가락(22)의 안 쪽 마디는 손가락(22)의 끝으로부터 세 번째 마디(220)에 해당할 수도 있다. 이 때, 자속 방향 측정부(212)는 손가락(22)이 위 또는 아래 방향(226)으로 구부려짐에 따라 가변되는 자속의 방향을 검출하고, 검출된 방향을 아날로그 형태의 센싱된 결과로서 출력한다. 이를 위해, 자속 방향 측정부(212)는 자이언트 마그네토 레지스티브(GMR:Giant Magneto Resistive) 센서(미도시)로 구현될 수 있다.Referring to FIG. 10, the first sensing unit 230 includes a magnet 214 and a magnetic flux direction measuring unit 212. Here, the magnet 214 is provided at one node of the finger 22, and the magnetic flux direction measuring unit 212 is positioned in the direction in which the magnetic flux generated from the magnet 214 flows in the other node of the finger 22 Measures the direction in which the magnetic flux flows, and outputs the measured direction as a sensed result. Here, one of the nodes of the finger 22 corresponds to the outer node of the finger 22, and the other node of the finger 22 corresponds to the inner node of the finger 22. Because the output of the magnetic flux direction measuring unit 212 may be connected to the ADC 62 by wire, it is preferable that the output of the magnetic flux direction measuring unit 212 is provided at the inner movable node and the magnet 214 is preferably provided at the moving outer node. 10, the outer node of the finger 22 corresponds to the second node 222 from the end of the finger 22, and the inner node of the finger 22 corresponds to the end of the finger 22 The outer node of the finger 22 corresponds to the first node 224 from the end of the finger 22 and the finger 22 may correspond to the third node 220 from the finger 22, May correspond to the third node 220 from the end of the finger 22. At this time, the magnetic flux direction measuring unit 212 detects the direction of the variable magnetic flux as the finger 22 is bent in the upward or downward direction 226, and outputs the detected direction as the sensed result of the analog form . For this purpose, the magnetic flux direction measuring unit 212 may be implemented with a giant magnetoresistive (GMR) sensor (not shown).

전술한 제1 센싱기(80) 및 그의 실시예들은 오른손 및/또는 왼손의 손가락들중 적어도 하나에서 어느 마디에도 부착될 수 있다. 그러나, 전술한 바와 같이. 제1 센싱기(80) 및 그의 실시예들은 사용자가 정보를 선택하기 위해서 손가락(22)을 구부릴 때, 손가락(22)의 구부러진 각도가 최대로 변하는 부분에 마련되는 것이 바람직하다.The above-described first sensing device 80 and its embodiments may be attached to any node in at least one of the fingers of the right hand and / or the left hand. However, as described above. Preferably, the first sensing device 80 and its embodiments are provided at a portion where the angle of bending of the finger 22 is maximum when the user bends the finger 22 to select information.

한편, 도 4에 도시된 센싱부(20A)는 손가락(22)의 구부림 뿐만 아니라 손이나 손가락(22)의 다른 움직임을 다음과 같이 센싱할 수 있다(제40 단계). 이를 위해, 제2 센싱기(82)는 손가락(22)의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 제3 센싱기(84)는 손의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 또한, 제4 센싱기(86)는 손의 좌(또는, 왼쪽) 또는 우(또는, 오른쪽) 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 또한, 제5 센싱기(88)는 손가락(22)의 좌 또는 우 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 이 때, 제6 센싱기(90)는 손가락(22) 끝으로부터 세번째 관절(24)의 움직임을 센싱하고, 센싱된 결과를 출력하는 역할을 하며, 손가락(22)의 첫 번째 마디(26), 두 번째 마디(28) 또는 세 번째 마디(30)에 마련될 수 있다. 여기서, 제2, 제5 및/또는 제6 센싱기들(82, 88 및/또는 90)은 오른손 및/또는 왼손의 적어도 하나 이상의 손가락(22)의 어느 마디에도 마련될 수 있고, 제3 및/또는 제4 센싱기(84 및/또는 86)는 오른손 및/또는 왼손의 손등 및/또는 손바닥에 마련될 수 있다. 그러나, 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각은 손이나 손가락의 움직임이 최대로 되는 변하는 마디에 마련되는 것이 바람직하다.The sensing unit 20A shown in FIG. 4 can sense not only the bending of the finger 22 but also other movements of the hand or the finger 22 as follows (Step 40). To this end, the second sensing unit 82 senses the upward or downward movement of the finger 22 and outputs the sensed result. The third sensing unit 84 senses the upward or downward movement of the hand and outputs the sensed result. The fourth sensing unit 86 senses the movement of the hand in the left (or left) or right (or right) direction, and outputs the sensed result. The fifth sensing device 88 senses the movement of the finger 22 in the left or right direction and outputs the sensed result. The sixth sensing unit 90 senses the movement of the third joint 24 from the end of the finger 22 and outputs the sensed result. The sixth sensing unit 90 senses the movement of the third joint 24 from the end of the finger 22, May be provided in the second node 28 or the third node 30. Here, the second, fifth and / or sixth sensing units 82, 88 and / or 90 may be provided in any one of the at least one finger 22 of the right and / or left hand, And / or the fourth sensing device 84 and / or 86 may be provided in the hand and / or palm of the right hand and / or the left hand. However, it is preferable that each of the second, third, fourth, fifth, and sixth sensing units 82, 84, 86, 88, and 90 is provided in a varying node where the movement of the hand or finger is maximized.

본 발명에 의하면, 도 4에 도시된 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각은 관성 센서로 구현될 수 있다. 예컨데, 제2, 제5 또는 제6 센싱기(82, 88 또는 90)를 구현하는 관성 센서(미도시)는 손가락(22)에 부착되어 손가락의 상하, 좌우 또는 세번째 관절(24)의 움직임을 각각 센싱하고, 센싱된 결과를 출력한다. 제3 또는 제4 센싱기(84 또는 86)를 구현하는 관성 센서(미도시)는 손에 부착되어 손의 상하 또는 좌우 움직임을 각각 센싱하고, 센싱된 결과를 출력한다. 여기서, 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각을 구현하는 관성 센서는 자이로 센서(미도시) 또는 가속도 센서(미도시)로 구현될 수 있다. 만일, 관성 센서가 자이로 센서로 구현될 경우, 관성 센서는 손이나 손가락의 움직임에 따라 변하는 각속도에 상응하는 레벨을 갖는 아날로그 형태의 전압 을 센싱된 결과로서 출력한다. 그러나, 관성 센서가 가속도 센서로 구현될 경우, 관성 센서는 손이나 손가락의 움직임에 따라 변하는 가속도에 상응하는 레벨을 갖는 디지탈 또는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.According to the present invention, each of the second, third, fourth, fifth and sixth sensing units 82, 84, 86, 88 and 90 shown in Fig. 4 may be implemented as an inertial sensor. For example, an inertial sensor (not shown) that implements a second, fifth, or sixth sensing device 82, 88, or 90 may be attached to the finger 22 to move the finger up, down, left, Respectively, and outputs the sensed result. An inertial sensor (not shown), which implements the third or fourth sensing device 84 or 86, is attached to the hand and senses the up, down, left, and right movement of the hand, respectively, and outputs the sensed result. Here, the inertial sensor implementing each of the second, third, fourth, fifth and sixth sensing units 82, 84, 86, 88 and 90 may be a gyro sensor (not shown) or an acceleration sensor (not shown) . ≪ / RTI > If the inertial sensor is implemented as a gyro sensor, the inertial sensor outputs an analog type of voltage having a level corresponding to the angular speed varying with the movement of the hand or the finger, as a result of sensing. However, when the inertial sensor is implemented as an acceleration sensor, the inertial sensor outputs a digital or analog type of voltage having a level corresponding to the acceleration that varies depending on the movement of the hand or the finger, as a result of sensing.

전술한 제2, 제3, 제4 및 제5 센싱기들(82, 84, 86 및 88)로부터 출력되는 센싱된 결과들은 정보 화면에서 사용자가 선택한 정보를 인식하기 위해서 사용된다. 그러나, 제6 센싱기(90)로부터 출력되는 센싱된 결과는 정보 화면에서 선택된 정보를 사용자가 입력하고자 하는가를 결정하기 위해서 사용된다.The sensed results output from the second, third, fourth and fifth sensing units 82, 84, 86 and 88 are used to recognize information selected by the user on the information screen. However, the sensed result output from the sixth sensor 90 is used to determine whether the user wants to input the information selected in the information screen.

한편, 제40 단계후에, 신호 처리부(64)는 손가락(22)의 구부려진 각도(θ)를 제1 센싱기(80)로부터 입력한 센싱된 결과로부터 산출한다(제42 단계). 만일, 제1 센싱기(80)가 도 5, 도 7, 도 8 (a), (b) 또는 (c)에 도시된 바와 같이 구현될 경우, 신호 처리부(64)는 가변된 저항값, 가변된 커패시턴스, 가변된 각속도 또는 가속도에 상응하는 레벨을 갖는 디지탈 형태의 전압으로부터 손가락(22)의 구부러진 각도(θ)를 산출한다. 그러나, 제1 센싱기(80)가 도 9에 도시된 바와 같이 구현될 경우, 신호 처리부(64)는 수광부(194)로부터 입력한 전기적인 신호가 갖는 단위 시간당 펄스의 갯수를 카운팅하고, 카운팅된 결과로부터 손가락(22)의 구부러진 각도(θ)를 산출한다. 또한, 제1 센싱기(80)가 도 10에 도시된 바와 같이 구현될 경우, 신호 처리부(64)는 자속 방향 측정부(212)로부터 입력한 방향으로부터 각도를 산출한다.After step 40, the signal processing unit 64 calculates the bent angle? Of the finger 22 from the sensed result input from the first sensing unit 80 (step 42). If the first sensing unit 80 is implemented as shown in FIGS. 5, 7, 8A, 8B or 9C, the signal processing unit 64 may include a variable resistance value, (Theta) of the finger 22 from a voltage in the digital form having a level corresponding to the measured capacitance, the variable angular velocity, or the acceleration. 9, the signal processing unit 64 counts the number of pulses per unit time of the electric signal input from the light receiving unit 194, and counts the number of pulses per unit time of the electric signal inputted from the light receiving unit 194. In the case where the first sensing unit 80 is implemented as shown in FIG. 9, From the result, the bent angle? Of the finger 22 is calculated. 10, the signal processing unit 64 calculates the angle from the direction input from the magnetic flux direction measuring unit 212. The first sensing unit 80 may be configured as shown in FIG.

또한, 전술한 바와 같이 각도를 산출할 뿐만 아니라, 제40 단계후에, 신호 처리부(64)는 손 및/또는 손가락(22)의 움직임을 센싱한 결과로부터 필요한 정보 즉, 각종 변위를 산출할 수도 있다(제42 단계). 이를 위해, 신호 처리부(64)는 제2 센싱기(82)에서 센싱된 결과로부터 손가락(22)의 위쪽 또는 아래쪽 방향의 움직임의 정도를 제1 변위로서 산출하고, 제3 센싱기(84)에서 센싱된 결과로부터 손의 위쪽 또는 아래쪽 방향의 움직임의 정도를 제2 변위로서 산출하며, 제4 센싱기(86)에서 센싱된 결과로부터 손의 오른쪽 또는 왼쪽 방향의 움직임의 정도를 제3 변위로서 산출하고, 제5 센싱기(88)에서 센싱된 결과로부터 손가락(22)의 오른쪽 또는 왼쪽 방향의 움직임의 정도를 제4 변위로서 산출하고, 제6 센싱기(90)에서 센싱된 결과로부터 손가락(22)의 끝에서부터 세번째 관절(24)의 움직임의 정도를 제5 변위로서 산출한다.In addition to calculating the angle as described above, after step 40, the signal processing unit 64 may calculate necessary information, that is, various displacements, from the result of sensing the movement of the hand and / or the finger 22 (Step 42). The signal processor 64 calculates the degree of movement of the finger 22 in the upward or downward direction as a first displacement from the sensed result at the second sensing device 82, The degree of the movement in the upward or downward direction of the hand is calculated as the second displacement from the sensed result and the degree of the movement in the right or left direction of the hand is calculated as the third displacement from the result sensed by the fourth sensing device 86 The degree of movement of the finger 22 in the right or left direction is calculated as the fourth displacement from the result sensed by the fifth sensing device 88 and the finger 22 ) Of the third joint 24 is calculated as the fifth displacement.

이 때, ADC(62)가 마련될 경우, 신호 처리부(64)는 ADC(62)로부터 입력한 디지탈 형태의 센싱된 결과로부터 각도 및/또는 해당하는 변위를 산출하지만, ADC(62)가 마련되지 않을 경우 센싱부(20A)로부터 입력한 센싱된 결과로부터 각도 및/또는 해당하는 변위를 산출한다. 또한, 도 4에 도시된 신호 처리부(64)와 정보 선택부(68) 사이에 선택적으로 마련되는 인터페이스부(66)는 신호 처리부(64)로부터 입력한 각도 및/또는 각종 변위를 전송 형태로 변환하고, 변환된 각도나 각종 변위를 정보 선택부(68)로 유선 또는 무선으로 전송한다.At this time, when the ADC 62 is provided, the signal processing unit 64 calculates the angle and / or the corresponding displacement from the sensed result of the digital form input from the ADC 62, but the ADC 62 is provided And calculates an angle and / or a corresponding displacement from the sensed result input from the sensing unit 20A. An interface unit 66 selectively provided between the signal processing unit 64 and the information selecting unit 68 shown in Fig. 4 converts the angle and / or various displacements inputted from the signal processing unit 64 into a transmission form And transmits the converted angle and various displacements to the information selecting unit 68 by wire or wirelessly.

한편, 본 발명의 일 실시예에 의하면, 센싱부(20A)가 제1 센싱기(80)로만 구성될 경우, 제42 단계후에, 정보 선택부(68)는 신호 처리부(64)에서 산출된 각도로부터 정보 화면에서의 1차원적인 위치를 결정하고, 결정된 1차원적인 위치에 존재하는 정보를 사용자가 선택한 정보로서 결정하고, 결정된 정보를 출력단자 OUT1을 통해 출력한다(제44 단계). 여기서, 1차원적인 위치란, 정보 화면에서 수평 방향으로의 위치 또는 수직 방향으로의 위치가 될 수 있다.According to an embodiment of the present invention, when the sensing unit 20A is constituted only by the first sensing unit 80, after the operation 42, the information selecting unit 68 selects the angle &thetas; Dimensional position in the information screen, determines information existing in the determined one-dimensional position as information selected by the user, and outputs the determined information through the output terminal OUT1 (operation 44). Here, the one-dimensional position can be a position in the horizontal direction or a position in the vertical direction on the information screen.

본 발명의 다른 실시예에 의하면, 센싱부(20A)가 제1 센싱기(80) 뿐만 아니라 제2 또는/및 제3 센싱기(82 또는/및 84)를 부가적으로 마련할 경우, 제42 단계후에, 정보 선택부(68)는 제1 또는/및 제2 변위와 각도로부터 정보 화면의 1차원적인 위치를 결정하고, 결정된 1차원적인 위치에 존재하는 정보를 사용자가 선택한 정보로서 결정하고, 결정된 정보를 출력단자 OUT1을 통해 출력한다(제44 단계).According to another embodiment of the present invention, when the sensing unit 20A additionally includes the second sensing unit 82 and / or the third sensing unit 84 as well as the first sensing unit 80, After the step, the information selecting unit 68 determines a one-dimensional position of the information screen from the first and / or second displacements and angles, determines information existing in the determined one-dimensional position as information selected by the user, And outputs the determined information through the output terminal OUT1 (operation 44).

이하, 제44 단계에 대한 본 발명에 의한 바람직한 일 실시예(44A) 및 그 실시예(44A)를 수행하는 본 발명에 의한 정보 선택부(68)의 실시예의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, referring to the drawings attached to the configuration and operation of the embodiment of the information selector 68 according to the present invention for carrying out the preferred embodiment 44A and the embodiment 44A of the present invention, The following explains as follows.

도 11은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 일 실시예(44A)를 설명하기 위한 플로우차트로서, 제1 각도 범위들중 해당하는 제1 각도 범위로부터 찾은 1차원적인 위치에 있는 정보를 찾는 단계(제250 ∼ 제254 단계들)로 이루어진다.FIG. 11 is a flowchart for explaining an embodiment 44A according to the present invention for step 44 shown in FIG. 3, in which a first one of the first angular ranges is located at a one-dimensional position (Steps 250 to 254).

도 12는 도 11에 도시된 제44A 단계를 수행하는 도 4에 도시된 정보 선택부(68)의 본 발명에 의한 바람직한 실시예(68A)의 블럭도로서, 제1 각도 범위 결정부(270), 제1 위치 매핑부(272) 및 정보 인식부(274)로 구성된다.FIG. 12 is a block diagram of a preferred embodiment 68A of the information selector 68 shown in FIG. 4, which performs step 44A shown in FIG. 11 according to the present invention. The first angle range determining unit 270, A first location mapping unit 272, and an information recognition unit 274.

제42 단계후에, 제1 소정수의 소정의 제1 각도 범위들중에서 해당하는 제1 각도 범위를 선택한다(제250 단계). 여기서, 제1 소정수는 1차원적인 위치의 개수를 나타내며, 정보 화면에서 수평 또는 수직 방향으로 존재하는 정보의 개수를 의 미한다.After operation 42, the first angular range corresponding to the predetermined first angular ranges of the first predetermined number is selected (operation 250). Here, the first predetermined number indicates the number of one-dimensional positions, and indicates the number of information existing in the horizontal or vertical direction on the information screen.

먼저, 신호 처리부(64)가 각도만을 산출하였다면, 제250 단계를 수행하기 위해, 제1 각도 범위 결정부(270)는 신호 처리부(64)로부터 입력단자 IN1을 통해 입력한 각도와 제1 소정수의 소정의 제1 각도 범위들을 비교하고, 산출된 각도가 속하는 제1 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 제1 각도 범위를 제1 위치 매핑부(272)로 출력한다. 예를 들면, 각도가 0 ∼ 90°사이에서 산출될 수 있고 제1 소정수는 '3'이며 제1 각도 범위들은 0 ∼ 30°, 30 ∼ 60°및 60 ∼ 90°라고 가정할 때, 제1 각도 범위 결정부(270)는 신호 처리부(64)에서 산출된 각도가 세 개의 제1 각도 범위들중 어느 범위에 속하는가를 결정한다(제250 단계).First, if the signal processing unit 64 has calculated only the angle, the first angle range determination unit 270 determines that the angle inputted from the signal processing unit 64 through the input terminal IN1 and the first predetermined number And outputs the selected first angular range to the first position mapping unit 272. The first angular range of the first angular range is determined based on the comparison result. For example, assuming that the angle can be calculated between 0 and 90 degrees, the first predetermined number is '3', and the first angular ranges are 0 to 30 degrees, 30 to 60 degrees and 60 to 90 degrees, The one-angle range determining unit 270 determines in which of the first three angular ranges the angle calculated by the signal processing unit 64 belongs (operation 250).

또한, 신호 처리부(64)가 각도와 제1 또는/및 제2 변위를 산출하였다면, 제250 단계를 수행하기 위해, 제1 각도 범위 결정부(270)는 신호 처리부(64)로부터 입력단자 IN1을 통해 각도와 제1 또는/및 제2 변위를 입력하고, 입력한 각도와 제1 또는/및 제2 변위에 해당하는 각도를 합한 결과가 속하는 해당하는 제1 각도 범위를 선택한다.If the signal processing unit 64 has calculated the angle and the first and / or second displacement, the first angular range determination unit 270 receives the input terminal IN1 from the signal processing unit 64 And the first and / or second displacements are input through the first and / or second displacements, and the corresponding first angular range to which the result of adding the angles and the angles corresponding to the first and / or second displacements belongs is selected.

제250 단계후에, 선택된 제1 각도 범위와 매핑되는 1차원적인 위치를 찾는다(제252 단계). 이를 수행하기 위해, 제1 위치 매핑부(272)는 제1 각도 범위 결정부(270)로부터 입력한 제1 각도 범위와 매핑되는 1차원적인 위치를 검색하고, 검색된 1차원적인 위치를 정보 인식부(274)로 출력한다.After operation 250, a one-dimensional position to be mapped with the selected first angle range is found (operation 252). In order to do this, the first position mapping unit 272 searches a one-dimensional position mapped with the first angle range input from the first angle range determination unit 270, and searches the one- (274).

제252 단계후에, 검색된 1차원적인 위치와 매핑되는 정보를 찾고, 찾아진 정보를 사용자가 선택한 정보로서 인식한다(제254 단계). 이를 위해, 정보 인식부(274)는 제1 위치 매칭부(272)로부터 입력한 1차원적인 위치와 매핑되는 정보를 검색하고, 검색된 정보를 사용자가 선택한 정보로서 인식하고, 인식한 정보를 출력단자 OUT4를 통해 출력한다. 이를 위해, 정보 인식부(274)는 1차원적인 위치들에 존재하는 정보들 또는 그 정보들의 좌표값들을 미리 저장하는 저장부(미도시)와 제1 위치 매핑부(272)로부터 입력한 1차원적인 위치를 어드레스로하여 저장부에 저장된 정보나 좌표값을 독출시키는 독출부(미도시)로 구현될 수 있다.After step 252, the information mapped to the searched one-dimensional position is searched and the searched information is recognized as information selected by the user (step 254). To this end, the information recognition unit 274 searches information mapped to the one-dimensional position input from the first position matching unit 272, recognizes the retrieved information as information selected by the user, OUT4. To this end, the information recognition unit 274 includes a storage unit (not shown) for previously storing information existing in one-dimensional positions or coordinate values of the information, and a storage unit And a reading unit (not shown) for reading information stored in the storage unit and coordinate values with an address as an address.

본 발명의 또 다른 실시예에 의하면, 센싱부(20A)가 제1 센싱기(80) 뿐만 아니라 제4 또는/및 제5 센싱기(86 또는/및 88)를 부가적으로 마련할 경우, 제42 단계후에, 정보 선택부(68)는 제3 또는/및 제4 변위와 각도로부터 정보 화면에서의 2차원적인 위치를 결정하고, 결정된 2차원적인 위치에 존재하는 정보를 사용자가 선택한 정보로서 결정한다(제44 단계). 여기서, 2차원적인 위치란, 정보 화면에서 수평 및 수직 방향들에서의 위치를 의미한다. 예를 들어, 정보 화면이 도 1에 도시된 바와 같이 가상 키보드(12)일 경우, 2차원적인 위치란 해당하는 키가 위치하는 행 및 열의 좌표를 의미한다.According to another embodiment of the present invention, when the sensing unit 20A additionally includes not only the first sensing device 80 but also the fourth and / or fifth sensing devices 86 and / or 88, After step 42, the information selecting unit 68 determines a two-dimensional position in the information screen from the third and / or fourth displacements and angles, and determines information existing in the determined two-dimensional position as information selected by the user (Step 44). Here, the two-dimensional position means a position in the horizontal and vertical directions on the information screen. For example, when the information screen is the virtual keyboard 12 as shown in FIG. 1, the two-dimensional position means coordinates of a row and a column in which a corresponding key is located.

이하, 제44 단계에 대한 본 발명에 의한 바람직한 다른 실시예(44B) 및 그 실시예(44B)를 수행하는 본 발명에 의한 정보 선택부(68)의 실시예의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, referring to the drawings attached to the construction and operation of the embodiment of the information selector 68 according to the present invention for carrying out the other preferred embodiment 44B and the embodiment 44B according to the present invention, The following explains as follows.

도 13은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 다른 실시예(44B)를 설명하기 위한 플로우차트로서, 제1 각도 범위들중 해당하는 제1 각도 범위와 제2 각도 범위들중 해당하는 제2 각도 범위로부터 1차원적인 위치들을 찾는 단계( 제290 및 제292 단계들) 및 1차원적인 위치들로부터 찾은 2차원 위치를 이용하여 정보를 찾는 단계(제294 단계들)로 이루어진다.FIG. 13 is a flow chart for explaining another embodiment 44B of the present invention according to the forty-fourth step shown in FIG. 3, wherein the first angular range and the second angular range Searching for one-dimensional positions from the corresponding second angle range (steps 290 and 292), and finding information using the two-dimensional position found from the one-dimensional positions (step 294).

도 14는 도 13에 도시된 제44B 단계를 수행하는 도 4에 도시된 정보 선택부(68)의 본 발명에 의한 실시예(68B)의 블럭도로서, 제1 및 제2 각도 범위 결정부들(270 및 310), 제1 및 제2 위치 매핑부들(272 및 312) 및 정보 인식부(314)로 구성된다.14 is a block diagram of an embodiment 68B of the present invention of the information selector 68 shown in Fig. 4, which performs step 44B shown in Fig. 13, in which the first and second angular range determiners 270 and 310, first and second position mapping units 272 and 312, and an information recognizing unit 314.

제42 단계후에, 제1 소정수의 제1 각도 범위들중에서 해당하는 제1 각도 범위를 선택하고, 제2 소정수의 소정의 제2 각도 범위들중에서 해당하는 제2 각도 범위를 선택한다(제290 단계). 여기서, 제2 소정수는 제2 각도 범위들과 매핑될 수 있는 1차원적인 위치의 개수를 나타낸다. 만일, 제1 소정수가 정보 화면에서 수평 방향으로 존재하는 정보의 개수를 나타낸다면 제2 소정수는 정보 화면에서 수직 방향으로 존재하는 정보의 개수를 나타내고, 제1 소정수가 정보 화면에서 수직 방향으로 존재하는 정보의 개수를 나타낸다면 제2 소정수는 정보 화면에서 수평 방향으로 존재하는 정보의 개수를 나타낸다.After step 42, the first angular range is selected from among the first angular ranges of the first predetermined number, and the corresponding second angular range is selected from the second predetermined angular ranges of the second predetermined number Step 290). Here, the second predetermined number represents the number of one-dimensional positions that can be mapped to the second angular ranges. If the first predetermined number indicates the number of information existing in the horizontal direction on the information screen, the second predetermined number indicates the number of information existing in the vertical direction on the information screen. If the first predetermined number is present in the vertical direction on the information screen The second predetermined number indicates the number of pieces of information existing in the horizontal direction on the information screen.

제290 단계에서, 해당하는 제1 각도 범위를 선택하는 과정에 대한 설명은 전술한 제250 단계와 동일하므로 생략한다. 즉, 해당하는 제1 각도 범위는 도 12에 도시된 제1 각도 범위 결정부(270)와 동일한 도 14에 도시된 제1 각도 범위 결정부(270)에서 선택된다. 이 때, 해당하는 제2 각도 범위를 선택하기 위해, 제2 각도 범위 결정부(310)는 제2 소정수의 소정의 제2 각도 범위들을 신호 처리부(64)로부터 입력단자 IN2를 통해 입력한 제3 및/또는 제4 변위와 비교하고, 제3 및/또 는 제4 변위가 속하는 제2 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 제2 각도 범위를 제2 위치 매핑부(312)로 출력한다. 예컨데, 제3 또는/및 제4 변위가 산출되었을 경우, 제2 각도 범위 결정부(310)는 신호 처리부(64)에서 산출된 제3 또는/및 제4 변위에 속하는 해당하는 제2 각도 범위를 제2 소정수의 제2 각도 범위들중에서 선택한다.In step 290, the process of selecting the corresponding first angular range is the same as that of step 250, and thus will be omitted. That is, the corresponding first angular range is selected in the first angular range determining portion 270 shown in Fig. 14, which is the same as the first angular range determining portion 270 shown in Fig. At this time, in order to select the corresponding second angular range, the second angular range determination unit 310 determines whether or not the second predetermined angular ranges of the second predetermined angular ranges are inputted from the signal processing unit 64 through the input terminal IN2 3 and / or the fourth displacement, and selects the second angular range to which the third and / or fourth displacement belongs in response to the compared result, and selects the selected second angular range to the second position mapping unit 312, . For example, when the third and / or fourth displacements are calculated, the second angular range determining unit 310 determines the corresponding second angular range belonging to the third and / or fourth displacements calculated in the signal processing unit 64 as And a second predetermined number of second angular ranges.

제290 단계후에, 선택된 제1 각도 범위와 매핑되는 1차원적인 위치를 찾고, 선택된 제2 각도 범위와 매핑되는 1차원적인 위치를 찾는다(제292 단계). 본 발명의 이해를 돕기 위해, 제1 각도 범위와 매핑되는 1차원적인 위치는 정보 화면에서 수평 방향의 위치이고, 제2 각도 범위와 매핑되는 1차원적인 위치는 정보 화면에서 수직 방향의 위치라고 가정한다. 이 때, 제290 단계를 수행하기 위해, 제1 위치 매핑부(272)는 제252 단계에서와 동일하게 제1 각도 범위와 매핑되는 1차원적인 위치인 수평 방향의 위치를 찾고, 제2 위치 매핑부(312)는 제2 각도 범위 결정부(310)로부터 입력한 제2 각도 범위와 매핑되는 1차원적인 위치인 수직 방향의 위치를 검색하고, 검색된 수직 방향의 위치를 정보 인식부(314)로 출력한다. 예를 들면, 제1 또는 제2 위치 매핑부(272 또는 312)는 제1 또는 제2 소정수의 제1 또는 제2 각도 범위들 각각에 대한 수평 또는 수직 방향의 위치를 미리 저장하는 저장부(미도시)와 제1 또는 제2 각도 범위 결정부(270 또는 310)로부터 입력한 제1 또는 제2 각도 범위를 어드레스로하여 저장부에 저장된 수평 또는 수직 방향의 1차원적인 위치를 독출하는 독출부(미도시)로 구현될 수 있다.After step 290, a one-dimensional position mapped with the selected first angular range is searched for and a one-dimensional position mapped with the selected second angular range is found (operation 292). In order to facilitate understanding of the present invention, it is assumed that the one-dimensional position mapped to the first angular range is a position in the horizontal direction in the information screen, and the one-dimensional position mapped to the second angular range is a position in the vertical direction in the information screen do. At this time, in order to perform operation 290, the first position mapping unit 272 finds a position in the horizontal direction which is a one-dimensional position mapped to the first angle range in the same manner as in operation 252, The controller 312 searches for a position in a vertical direction that is a one-dimensional position that is mapped to the second angular range input from the second angular range determination unit 310 and outputs the detected vertical position to the information recognition unit 314 Output. For example, the first or second position mapping unit 272 or 312 may include a storage unit (not shown) for previously storing the position of the first or second predetermined number of the first or second angular ranges, A first or second angular range input from the first or second angular range determination unit 270 or 310 is used as an address to read a one-dimensional position in the horizontal or vertical direction stored in the storage unit, (Not shown).

제292 단계후에, 두 개의 1차원적인 위치들 예를 들면 수평 및 수직 방향들 로부터 2차원적인 위치 즉, 수평 및 수직 좌표값을 구하고, 2차원적인 위치와 매칭되는 정보를 찾으며, 찾아진 정보를 사용자가 선택한 정보로서 인식한다(제294 단계). 이를 위해, 정보 인식부(314)는 제1 위치 매칭부(272)로부터 입력한 1차원적인 위치인 수평 방향의 위치 및 제2 위치 매핑부(312)로부터 입력한 1차원적인 위치인 수직 방향의 위치로부터 결정한 2차원적인 위치인 수평 및 수직 좌표값과 매칭되는 정보를 검색하고, 검색된 정보를 사용자가 선택한 정보로서 인식하고, 인식된 정보를 출력단자 OUT5를 통해 출력한다. 예를 들면, 정보 인식부(314)는 2차원적인 위치들 각각에 정보를 미리 저장하는 저장부(미도시)와 제1 위치 매핑부(272) 및 제2 위치 매핑부(312)로부터 입력한 1차원적인 위치들로부터 구한 2차원적인 위치를 어드레스를 하여 저장부에 저장된 정보를 독출시키는 독출부(미도시)로 구현될 수 있다.After step 292, two-dimensional positions, i.e., horizontal and vertical coordinate values, from two one-dimensional positions, e.g., horizontal and vertical directions, are sought, information matching the two-dimensional position is searched, And recognizes it as information selected by the user (Step 294). For this purpose, the information recognizing unit 314 recognizes the horizontal position, which is a one-dimensional position input from the first position matching unit 272, and the horizontal position, which is a one-dimensional position input from the second position mapping unit 312, Information corresponding to the horizontal and vertical coordinate values, which are two-dimensional positions determined from the position, and recognizes the retrieved information as information selected by the user, and outputs the recognized information through the output terminal OUT5. For example, the information recognizing unit 314 may include a storage unit (not shown) for previously storing information in two-dimensional positions, and a storage unit (not shown) input from the first position mapping unit 272 and the second position mapping unit 312 (Not shown) for reading the information stored in the storage unit by addressing the two-dimensional positions obtained from the one-dimensional positions.

여기서, 센싱부(20A)가 제1 센싱기(80) 뿐만 아니라 제2 ∼ 제6 센싱기들(80 ∼ 90)을 오른손 및 왼속에 각각 마련할 경우, 정보 선택부(68)는 복수개의 정보들을 동시에 선택할 수도 있다.Here, when the sensing unit 20A is provided with not only the first sensing unit 80 but also the second to sixth sensing units 80 to 90 on the right hand and the left, respectively, the information selecting unit 68 selects a plurality of information Can be selected at the same time.

지금까지 정보 화면에 표시된 정보들중 사용자가 선택한 정보를 결정하는 본 발명에 의한 정보 입력 장치 및 방법에 대해 살펴보았다. 이 때, 본 발명에 의한 정보 입력 장치 및 방법은 전술한 바와 같이 선택된 정보를 입력할 정보로서 다음과 같이 결정할 수 있다.The information input apparatus and method according to the present invention for determining the information selected by the user among the information displayed on the information screen have been described. At this time, the information input apparatus and method according to the present invention can determine information to be input as selected information as follows.

일반적으로 키보드 또는 마우스 등에 익숙한 사용자는 이미 선택된 정보를 입력할 정보로서 결정하기 위해 클릭 동작을 수행하며, 사용자가 클릭 동작을 수행 할 때, 도 2에 도시된 손의 세번째 관절(24)이 움직여진다. 따라서, 본 발명에 의한 정보 입력 장치 및 방법은 선택된 정보가 사용자가 입력할 정보인가를 판단하기 위해, 제6 센싱기(90)를 통해 세번째 관절(24)의 움직임을 센싱한다. 결국, 도 4에 도시된 본 발명에 의한 정보 입력 장치는, 선택된 정보가 사용자가 입력하기를 원하는 정보인가를 결정하기 위해 센싱부(20A)에 제6 센싱기(90)를 마련할 수 있다.In general, a user who is familiar with a keyboard, a mouse or the like performs a click operation to determine already-selected information as information to be input, and when the user performs a click operation, the third joint 24 of the hand shown in Fig. 2 is moved . Accordingly, the information input apparatus and method according to the present invention sense the motion of the third joint 24 through the sixth sensor 90 to determine whether the selected information is information to be input by the user. As a result, the information input apparatus according to the present invention shown in FIG. 4 may include a sixth sensing unit 90 in the sensing unit 20A to determine whether the selected information is information that the user desires to input.

이 때, 정보 선택부(68)는 선택한 정보를 입력할 정보로서 결정할 의도가 사용자에게 있는가를 검사하기 위해, 즉, 세번째 관절(24)의 움직임이 클릭 동작에 해당하는 움직임인가를 검사하기 위해, 신호 처리부(64)에서 산출된 제5 변위를 분석하고, 분석된 결과에 응답하여 선택된 정보를 입력할 정보로서 결정한다.At this time, in order to check whether the user has an intention to decide the information to be input as the information to be input, that is, to check whether the motion of the third joint 24 corresponds to the click operation, Analyzes the fifth displacement calculated by the processing section 64, and determines the selected information as information to be input in response to the analyzed result.

한편, 전술한 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각은 본 발명에 의한 정보 입력 장치 및 방법의 응용례에 따라 선택적으로 마련될 수 있다. 예컨데, 본 발명에 의한 정보 입력 장치 및 방법이 가상 키보드 형태의 정보 화면을 이용하여 키 데이타라는 정보를 입력하기 위해 사용될 경우, 센싱부(20A)는 제1, 제4 및 제6 센싱기들(80, 86 및 90)을 마련하거나, 제1, 제3, 제4 및 제6 센싱기들(80, 84, 86 및 90)을 마련할 수 있다.Each of the second, third, fourth, fifth and sixth sensing units 82, 84, 86, 88 and 90 described above may be selectively arranged according to the application of the information input apparatus and method according to the present invention . For example, when the information input apparatus and method according to the present invention are used to input information called key data using a virtual keyboard type information screen, the sensing unit 20A includes first, fourth, and sixth sensing units 80, 86 and 90 may be provided or first, third, fourth and sixth sensing devices 80, 84, 86 and 90 may be provided.

예를 들어, 사용자가 가상 키보드(12) 형태의 정보 화면상에서 원하는 키를 선택하기 위해, 손을 오른쪽이나 왼쪽으로 움직여서 열을 선택하고, 손가락(22)을 아래나 위로 구부려서 선택된 열에서 원하는 키를 선택하며, 선택된 키를 클릭하여 선택된 키에 해당하는 키 데이타를 입력 정보로서 결정할려고 한다. 이를 위해, 센싱부(20A)는 손의 오른쪽이나 왼쪽의 움직임을 센싱하는 제4 센싱기(86)를 손등이 나 손바닥에 마련하고, 손가락(22)을 구부리는 각도를 센싱하는 제1 센싱기(80)를 왼손 또는/및 오른손 각각의 인지, 중지, 약지, 소지의 네 손가락들 각각의 끝에서 세번째 마디와 두번째 마디 사이에 마련하며 및 클릭 동작을 센싱할 수 있는 제6 센싱기(90)를 각 손가락에 마련한다. 그러므로, 종래의 QWERTY 키보드에 익숙해져 있는 사용자는 본 발명에 의한 정보 입력 장치 및 방법을 사용하므로써, 가상 키보드(12)상에 디스플레이되는 정보 화면을 보면서 원하는 정보를 마치 QWERY 키보드를 사용하는 것처럼 공간적으로 또는 평면적으로 개인용 컴퓨터 따위에 입력시킬 수 있다.For example, to select a desired key on the information screen in the form of a virtual keyboard 12, the user may move his or her hand to the right or left to select the column and bend the finger 22 upward or downward to move the desired key And tries to determine the key data corresponding to the selected key as input information by clicking the selected key. The sensing unit 20A is provided with a fourth sensing unit 86 for sensing the movement of the right or left hand of the hand on the back of the hand or the palm of the hand and a first sensing unit (80) is provided between the third node and the second node at the ends of each of the four fingers of the cognition, stop, ring finger, and possession of the left hand and / or the right hand and a sixth sensing device (90) Is provided on each finger. Therefore, a user who is accustomed to the conventional QWERTY keyboard can use the information input device and method according to the present invention to view desired information on the information screen displayed on the virtual keyboard 12, Or in a planar manner, such as a personal computer.

그 밖에, 본 발명에 의한 정보 입력 장치 및 방법은 개인용 컴퓨터, PDA 또는 셀룰러 폰등을 포함하는 손에 쥘만한 크기의 장치나, 무선 휴대용 장치, 가상 음악 연주 장치, 컴퓨터 게임기, 의료 진단 장치 또는 가상 현실 장치 등에서 정보를 입력하기 위해 사용되는 마우스, 오락용 조이스틱 또는 리모콘등을 대체하여 폭 넓게 적용될 수 있다.In addition, the information input apparatus and method according to the present invention may be applied to a hand held size apparatus including a personal computer, a PDA or a cellular phone, a wireless portable apparatus, a virtual music playing apparatus, a computer game machine, A joystick for entertainment, a remote controller or the like, which is used for inputting information in a device or the like.

이상에서 설명한 바와 같이, 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치 및 방법은 평면적으로 또는 공간적으로 선택된 정보를 손가락의 관절 각도를 이용하여 신속하고 편리하게 입력할 수 있으므로, 예를 들면, 종래의 QWERTY 키보드에 익숙해져 있는 사용자로 하여금 가상 키보드(12)상에 디스플레이되는 정보 화면을 보면서 원하는 정보를 마치 QWERY 키보드를 사용하는 것처럼 개인용 컴퓨터 따위에 신속하고 편리하게 입력시킬 수 있도록 하는 효과를 갖는다.As described above, the information input apparatus and method using the joint angles of the body according to the present invention can quickly and conveniently input information selected in a planar or spatially using the joint angles of the fingers. For example, The user who is accustomed to the conventional QWERTY keyboard has the effect of promptly and conveniently inputting the desired information to the personal computer as if using the QWERTY keyboard while viewing the information screen displayed on the virtual keyboard 12 .

Claims (41)

삭제delete 삭제delete 삭제delete 신체 관절의 구부림을 센싱하고, 센싱된 결과를 출력하는 제1 센싱기;A first sensing unit sensing a bending of the body joint and outputting a sensed result; 상기 신체 관절의 구부려진 각도를 상기 제1 센싱기로부터 입력한 상기 센싱된 결과로부터 산출하는 신호 처리부; 및A signal processing unit for calculating a bent angle of the body joint from the sensed result input from the first sensing unit; And 상기 신호 처리부로부터 입력한 상기 각도로부터 사용자에게 디스플레이되는 정보 화면에서의 1차원적인 위치를 결정하고, 결정된 상기 1차원적인 위치에 존재하는 정보를 상기 사용자가 선택한 정보로서 결정하는 정보 선택부를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Dimensional position on the information screen displayed to the user from the angle input from the signal processing unit and determining the information existing in the determined one-dimensional position as the information selected by the user An information input device using the joint angles of the body. 제4 항에 있어서, 5. The method of claim 4, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 장치는 상기 손가락의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 센싱된 결과를 출력하는 제2 센싱기를 더 구비하고,Wherein the information input device further comprises a second sensing device sensing a movement of the finger in an upward or downward direction and outputting a sensed result, 상기 신호 처리부는 상기 제2 센싱기로부터 입력한 상기 센싱된 결과로부터 상기 움직임의 정도를 제1 변위로서 산출하고,Wherein the signal processing unit calculates a degree of the movement from the sensed result input from the second sensing unit as a first displacement, 상기 정보 선택부는 상기 제1 변위 및 상기 각도로부터 상기 1차원적인 위치를 결정하는 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the information selecting unit determines the one-dimensional position from the first displacement and the angle. 제4 항에 있어서, 5. The method of claim 4, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 장치는 적어도 하나 이상의 손의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 센싱된 결과를 출력하는 제3 센싱기를 더 구비하고,The information input device may further include a third sensing unit sensing a movement of the at least one hand in the upward or downward direction and outputting a sensed result, 상기 신호 처리부는 상기 제3 센싱기로부터 입력한 상기 센싱된 결과로부터 상기 움직임의 정도를 제2 변위로서 산출하고,Wherein the signal processing unit calculates the degree of the motion as a second displacement from the sensed result input from the third sensing unit, 상기 정보 선택부는 상기 제2 변위 및 상기 각도로부터 상기 1차원적인 위치를 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the information selecting unit determines the one-dimensional position from the second displacement and the angle. 제4 항에 있어서, 5. The method of claim 4, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 장치는 적어도 하나 이상의 손의 좌 또는 우 방향의 움직임을 센싱하고, 센싱된 결과를 출력하는 제4 센싱기를 더 구비하고,Wherein the information input device further comprises a fourth sensing device sensing a movement of at least one hand in a left or right direction and outputting a sensed result, 상기 신호 처리부는 상기 제4 센싱기로부터 입력한 상기 센싱된 결과로부터 상기 움직임의 정도를 제3 변위로서 산출하고,Wherein the signal processing unit calculates the degree of the motion from the sensed result input from the fourth sensing unit as a third displacement, 상기 정보 선택부는 상기 제3 변위 및 상기 각도로부터 상기 정보 화면에서의 2차원적인 위치를 결정하고, 결정된 상기 2차원적인 위치에 존재하는 정보를 상기 선택한 정보로서 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the information selection unit determines a two-dimensional position in the information screen from the third displacement and the angle, and determines information existing at the determined two-dimensional position as the selected information. . 제4 항에 있어서, 5. The method of claim 4, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 장치는 상기 손가락의 좌 또는 우 방향의 움직임을 센싱하고, 센싱된 결과를 출력하는 제5 센싱기를 더 구비하고,Wherein the information input device further comprises a fifth sensing device for sensing movement of the finger in a left or right direction and outputting a sensed result, 상기 신호 처리부는 상기 제5 센싱기로부터 입력한 상기 센싱된 결과로부터 상기 움직임의 정도를 제4 변위로서 산출하고,Wherein the signal processing unit calculates the degree of the movement from the sensed result input from the fifth sensing unit as a fourth displacement, 상기 정보 선택부는 상기 제4 변위 및 상기 각도로부터 상기 정보 화면에서의 2차원적인 위치를 결정하고, 결정된 상기 2차원적인 위치에 존재하는 정보를 상기 선택한 정보로서 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the information selecting unit determines a two-dimensional position in the information screen from the fourth displacement and the angle, and determines information existing at the determined two-dimensional position as the selected information. . 제4 항 내지 제8 항중 어느 한 항에 있어서, 9. The method according to any one of claims 4 to 8, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 선택된 정보를 입력할 정보로서 결정하는 정보 입력 장치에 있어서,The information input device determining the selected information as information to be input, 상기 손가락 끝으로부터 세번째 관절의 움직임을 센싱하고, 센싱된 결과를 출력하는 제6 센싱기를 더 구비하고,Further comprising a sixth sensing unit sensing the motion of the third joint from the fingertip and outputting a sensed result, 상기 신호 처리부는 상기 제6 센싱기로부터 입력한 상기 센싱된 결과로부터 상기 관절의 움직임의 정도를 제5 변위로서 산출하고,Wherein the signal processing unit calculates the degree of movement of the joint from the sensed result input from the sixth sensing unit as a fifth displacement, 상기 정보 선택부는 상기 제5 변위를 분석하여, 상기 사용자가 상기 선택할 정보를 상기 입력할 정보로서 결정할 의도가 있는가를 검사하고, 검사된 결과에 응답하여 상기 선택된 정보를 상기 입력할 정보로서 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.The information selection section analyzes the fifth displacement to check whether the user intends to determine the selection information as the input information and determines the selected information as the information to be input in response to the checked result An information input device using the joint angle of the body. 제9 항에 있어서, 상기 제6 센싱기는 상기 손가락의 첫 번째 마디, 두 번째 마디 또는 세 번째 마디에 마련되는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.10. The apparatus of claim 9, wherein the sixth sensor is provided at a first node, a second node, or a third node of the finger. 제4 항 내지 제8 항중 어느 한 항에 있어서, 상기 정보 입력 장치는9. The information input apparatus according to any one of claims 4 to 8, 상기 제1, 상기 제2, 상기 제3, 상기 제4 또는 상기 제5 센싱기로부터 입력한 상기 센싱된 결과를 디지탈 형태로 변환하고, 변환된 결과를 상기 신호 처리부로 출력하는 아날로그/디지탈 변환기를 더 구비하고,An analog / digital converter for converting the sensed result input from the first, second, third, fourth or fifth sensing unit into a digital form and outputting the converted result to the signal processing unit Further, 상기 신호 처리부는 상기 아날로그/디지탈 변환기로부터 입력한 상기 변환된 결과로부터 상기 각도 또는 상기 움직임의 정도를 산출하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the signal processing unit calculates the angle or the degree of motion from the converted result input from the analog / digital converter. 제4 항 내지 제8 항중 어느 한 항에 있어서, 상기 정보 입력 장치는9. The information input apparatus according to any one of claims 4 to 8, 상기 신호 처리부와 상기 정보 선택부 사이에 마련되며, 상기 각도나 상기 움직임의 정도를 입력하여 상기 정보 선택부로 유선 또는 무선으로 출력하는 인터페이스부를 더 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an interface unit provided between the signal processing unit and the information selection unit for inputting the angle or degree of motion and outputting the angle or the degree of motion to the information selection unit by wire or wireless. Device. 제4 항에 있어서, 상기 제1 센싱기는5. The apparatus of claim 4, wherein the first sensing unit 상기 신체 관절의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되어 상기 신체 관절을 구부린 상기 각도에 따라 저항을 가변시키고, 가변된 상기 저항에 상응하는 레벨을 갖는 상기 센싱된 결과를 상기 신호 처리부로 출력하는 가변 저항을 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.A variable resistance which is provided over one of the nodes of the body joint and varies the resistance according to the angle at which the body joint is bent and outputs the sensed result having the level corresponding to the variable resistance to the signal processor; And a resistance is provided on the basis of the joint angles of the body. 제4 항에 있어서, 상기 제1 센싱기는5. The apparatus of claim 4, wherein the first sensing unit 상기 신체 관절의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되어 상기 신체 관절을 구부린 상기 각도에 따라 커패시턴스를 가변시키고, 가변된 상기 커패시턴스에 상응하는 레벨을 갖는 상기 센싱된 결과를 상기 신호 처리부로 출력하는 가변 커패시터를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And a control unit for controlling the capacitance of the body joint according to the angles of the bending of the body joint, which are provided over one of the nodes and the other node of the body joint, and outputs the sensed result having the level corresponding to the variable capacitance to the signal processor And a capacitor is provided on a surface of the body. 제4 항에 있어서, 상기 제1 센싱기는5. The apparatus of claim 4, wherein the first sensing unit 상기 신체 관절의 한 쪽 마디 또는 다른 쪽 마디에 마련되어 상기 신체 관절을 구부린 각도를 센싱하고, 상기 센싱된 결과를 출력하는 관성 센서를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an inertial sensor provided at one or the other of the body joints for sensing an angle at which the body joint is bent and outputting the sensed result. 제5 항에 있어서, 상기 제2 센싱기는6. The apparatus of claim 5, wherein the second sensing device 상기 손가락에 부착되며, 상기 손가락의 상기 움직임을 센싱하고, 상기 센싱된 결과를 출력하는 관성 센서를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an inertia sensor attached to the finger for sensing the movement of the finger and outputting the sensed result. 제6 항에 있어서, 상기 제3 센싱기는7. The apparatus of claim 6, wherein the third sensing device 상기 손에 부착되며, 상기 손의 상기 움직임을 센싱하고, 상기 센싱된 결과를 출력하는 관성 센서를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an inertial sensor attached to the hand for sensing the motion of the hand and outputting the sensed result. 제7 항에 있어서, 상기 제4 센싱기는8. The apparatus of claim 7, wherein the fourth sensing unit 상기 손에 부착되며, 상기 손의 상기 움직임을 센싱하고, 상기 센싱된 결과를 출력하는 관성 센서를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an inertial sensor attached to the hand for sensing the motion of the hand and outputting the sensed result. 제8 항에 있어서, 상기 제5 센싱기는9. The apparatus of claim 8, wherein the fifth sensing unit 상기 손가락에 부착되며, 상기 손가락의 상기 움직임을 센싱하고, 상기 센싱된 결과를 출력하는 관성 센서를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an inertia sensor attached to the finger for sensing the movement of the finger and outputting the sensed result. 제9 항에 있어서, 상기 제6 센싱기는10. The apparatus of claim 9, wherein the sixth sensing device 상기 손가락에 부착되며, 상기 손가락의 상기 움직임을 센싱하고, 상기 센싱된 결과를 출력하는 관성 센서를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.And an inertia sensor attached to the finger for sensing the movement of the finger and outputting the sensed result. 제4 항에 있어서, 상기 제1 센싱기는5. The apparatus of claim 4, wherein the first sensing unit 상기 신체 관절이 구부려질 때 회전하며 외측에 복수개의 홈들을 마련하는 회전 원판;A rotating disk rotating when the body joint is bent and providing a plurality of grooves on the outer side; 상기 홈에 빛을 조사하는 발광부; 및A light emitting portion for emitting light to the groove; And 상기 홈을 통과한 빛을 수광하고, 수광된 빛을 전기적인 신호로 변환하고, 변환된 상기 전기적인 신호를 상기 센싱된 결과로서 출력하는 수광부를 구비하고,And a light receiving unit that receives light passing through the groove, converts the received light into an electrical signal, and outputs the converted electrical signal as the sensed result, 상기 신호 처리부는 상기 수광부로부터 입력한 상기 전기적인 신호가 갖는 단위 시간당 펄스의 갯수를 카운팅하고, 카운팅된 결과로부터 상기 각도를 산출하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the signal processing unit counts the number of pulses per unit time of the electrical signal input from the light receiving unit and calculates the angle from the counted result. 제4 항에 있어서, 상기 제1 센싱기는5. The apparatus of claim 4, wherein the first sensing unit 상기 신체 관절의 한 쪽 마디에 마련되는 자석; 및A magnet provided on one side of the body joint; And 상기 신체 관절의 다른 쪽 마디에 상기 자석으로부터 발생되는 자속이 흐르는 방향에 마련되어 상기 방향을 측정하고, 측정된 방향을 상기 센싱된 결과로서 출력하는 자속 방향 측정부를 구비하고,And a magnetic flux direction measuring unit provided at a second node of the body joint in a direction in which a magnetic flux generated from the magnet flows to measure the direction and output the measured direction as the sensed result, 상기 신호 처리부는 상기 자속 방향 측정부로부터 입력한 상기 방향으로부터 상기 각도를 산출하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the signal processing unit calculates the angle from the direction input from the magnetic flux direction measuring unit. 제22 항에 있어서, 상기 신체 관절의 한 쪽 마디는 상기 신체 관절의 바깥쪽 마디에 해당하고, 상기 신체 관절의 다른 쪽 마디는 상기 신체 관절의 안쪽 마디에 해당하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.23. The method according to claim 22, wherein one of the nodes of the body joint corresponds to an outer node of the body joint, and the other node of the body joint corresponds to an inner node of the body joint. . 제4 항에 있어서, 상기 정보 화면은 소프트웨어적으로 가상으로 디스플레이되는 가상 키보드에 해당하고, 상기 정보는 키 데이타에 해당하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.The information input apparatus of claim 4, wherein the information screen corresponds to a virtual keyboard displayed in a virtual manner by software, and the information corresponds to key data. 제4 항에 있어서, 상기 정보 화면은 소프트웨어적으로 가상으로 디스플레이되는 가상 마우스에 해당하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.5. The apparatus of claim 4, wherein the information screen corresponds to a virtual mouse displayed as a virtual software. 제4 항에 있어서, 상기 정보 화면은 소프트웨어적으로 가상으로 디스플레이되는 가상 리모콘에 해당하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.5. The apparatus of claim 4, wherein the information screen corresponds to a virtual remote controller that is virtually displayed in software. 제4 항 내지 제7 항 중 어느 한 항에 있어서, 상기 정보 선택부는The information processing apparatus according to any one of claims 4 to 7, wherein the information selecting unit 상기 신호 처리부로부터 입력한 상기 각도와 제1 소정수의 소정의 제1 각도 범위들을 비교하고, 상기 각도가 속하는 상기 제1 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 상기 제1 각도 범위를 출력하는 제1 각도 범위 결정부;A first angular range of the first predetermined number of angles input from the signal processing unit is compared with the first angular ranges of the first predetermined number in response to the compared result, A first angular range determination unit for outputting a first angular range; 상기 제1 각도 범위 결정부로부터 입력한 상기 제1 각도 범위와 매핑되는 상기 1차원적인 위치를 검색하고, 검색된 상기 1차원적인 위치를 출력하는 제1 위치 매핑부; 및A first position mapping unit for searching the one-dimensional position mapped with the first angle range input from the first angle range determination unit and outputting the searched one-dimensional position; And 상기 제1 위치 매칭부로부터 입력한 상기 1차원적인 위치와 매핑되는 정보를 검색하고, 검색된 상기 정보를 상기 사용자가 선택한 정보로서 인식하는 정보 인식부를 구비하고,And an information recognizing unit for searching information mapped to the one-dimensional position input from the first position matching unit and recognizing the searched information as information selected by the user, 상기 제1 소정수는 상기 1차원적인 위치의 개수를 나타내는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the first predetermined number represents the number of the one-dimensional positions. 제27 항에 있어서, 상기 정보 선택부는28. The apparatus of claim 27, wherein the information selector 상기 신호 처리부로부터 입력한 상기 제3 변위와 제2 소정수의 소정의 제2 각도 범위들을 비교하고, 상기 제3 변위가 속하는 상기 제2 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 상기 제2 각도 범위를 출력하는 제2 각도 범위 결정부; 및A second angular range of the third displacement inputted from the signal processing unit is compared with a predetermined second angular range of the second predetermined number and the second angular range to which the third displacement belongs is selected in response to the compared result, A second angular range determination unit for outputting a second angular range; And 상기 제2 각도 범위 결정부로부터 입력한 상기 제2 각도 범위와 매핑되는 1차원적인 위치를 검색하고, 검색된 상기 1차원적인 위치를 출력하는 제2 위치 매핑부를 더 구비하고,Further comprising a second position mapping unit for searching a one-dimensional position mapped with the second angle range input from the second angle range determination unit and outputting the searched one-dimensional position, 상기 정보 인식부는 상기 제1 위치 매칭부로부터 입력한 상기 1차원적인 위치 및 상기 제2 위치 매핑부로부터 입력한 상기 1차원적인 위치에 해당하는 상기 2차원적인 위치와 매칭되는 정보를 검색하고, 검색된 상기 정보를 상기 사용자가 선택한 정보로서 인식하고, 상기 제2 소정수는 상기 제2 위치 매핑부에서 매핑될 수 있는 상기 1차원적인 위치의 개수를 나타내는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the information recognizing unit searches the one-dimensional position input from the first position matching unit and information matched with the two-dimensional position corresponding to the one-dimensional position input from the second position mapping unit, Wherein the second positional mapping unit recognizes the information as information selected by the user and the second predetermined number indicates the number of the one-dimensional positions that can be mapped by the second positional mapping unit. Device. 제4 항에 있어서, 5. The method of claim 4, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 각도는 상기 손가락의 끝에서 부터 두 번째 마디와 세 번째 마디가 이루는 각도인 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the angle is an angle formed by a second node and a third node from an end of the finger. 제4 항 내지 제8 항 중 어느 한 항에 있어서, 9. The method according to any one of claims 4 to 8, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 장치는 상기 손 및 손가락에 씌워지는 장갑 형태의 부재를 더 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 장치.Wherein the information input device further comprises a glove-shaped member which is put on the hand and the finger. (a) 신체 관절의 구부림을 센싱하는 단계;(a) sensing the bending of the body joint; (b) 상기 신체 관절의 구부려진 각도를 상기 (a) 단계에서 센싱된 결과로부터 구하는 단계; 및(b) obtaining a bent angle of the body joint from a result sensed in step (a); And (c) 상기 각도로부터 사용자에게 디스플레이되는 정보 화면에서의 1차원적인 위치를 결정하고, 결정된 상기 1차원적인 위치에 존재하는 정보를 상기 사용자가 선택한 정보로서 결정하는 단계를 구비하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.(c) determining a one-dimensional position in the information screen displayed to the user from the angle, and determining information present in the determined one-dimensional position as information selected by the user A method of inputting information using a joint angle of a joint. 제31 항에 있어서, 32. The method of claim 31, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 방법은 The information input method (d) 상기 손가락의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 상기 (b) 단계로 진행하는 단계를 더 구비하고,(d) sensing movement of the finger in the upward or downward direction, and proceeding to step (b) 상기 (b) 단계는 상기 (d) 단계에서 센싱된 결과로부터 상기 움직임의 정도를 제1 변위로서 산출하고,The step (b) may further include calculating a degree of the motion as a first displacement from a result sensed in the step (d) 상기 (c) 단계는 상기 제1 변위 및 상기 각도로부터 상기 1차원적인 위치를 결정하는 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the step (c) comprises the step of determining the one-dimensional position from the first displacement and the angle. 제31 항에 있어서, 32. The method of claim 31, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 방법은The information input method (e) 적어도 하나 이상의 손의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 상기 (b) 단계로 진행하는 단계를 더 구비하고,(e) sensing upward or downward movement of at least one hand, and proceeding to step (b) 상기 (b) 단계는 상기 (e) 단계에서 센싱된 결과로부터 상기 움직임의 정도를 제2 변위로서 산출하고,The step (b) may further include calculating a degree of the movement as a second displacement from a result sensed in the step (e) 상기 (c) 단계는 상기 제2 변위 및 상기 각도로부터 상기 1차원적인 위치를 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the step (c) determines the one-dimensional position from the second displacement and the angle. 제31 항에 있어서, 32. The method of claim 31, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 방법은The information input method (f) 적어도 하나 이상의 손의 좌 또는 우 방향의 움직임을 센싱하고, 상기 (b) 단계로 진행하는 단계를 더 구비하고,(f) sensing movement of at least one hand in the left or right direction, and proceeding to step (b) 상기 (b) 단계는 상기 (f) 단계에서 센싱된 결과로부터 상기 움직임의 정도를 제3 변위로서 산출하고,The step (b) may further include calculating a degree of the movement as a third displacement from a result sensed in the step (f) 상기 (c) 단계는 상기 제3 변위 및 상기 각도로부터 상기 정보 화면에서의 2차원적인 위치를 결정하고, 결정된 상기 2차원적인 위치에 존재하는 정보를 상기 선택한 정보로서 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the step (c) determines a two-dimensional position in the information screen from the third displacement and the angle, and determines information existing in the determined two-dimensional position as the selected information. Information input method using joint angles. 제31 항에 있어서, 32. The method of claim 31, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 정보 입력 방법은The information input method (g) 상기 손가락의 좌 또는 우 방향의 움직임을 센싱하는 단계를 더 구비하고,(g) sensing the movement of the finger in the left or right direction, 상기 (b) 단계는 상기 (g) 단계에서 센싱된 결과로부터 상기 움직임의 정도를 제4 변위로서 산출하고,In the step (b), the degree of the motion is calculated as a fourth displacement from the result sensed in the step (g) 상기 (c) 단계는 상기 제4 변위 및 상기 각도로부터 상기 정보 화면에서의 2차원적인 위치를 결정하고, 결정된 상기 2차원적인 위치에 존재하는 정보를 상기 선택한 정보로서 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the step (c) determines a two-dimensional position in the information screen from the fourth displacement and the angle, and determines information existing in the determined two-dimensional position as the selected information. Information input method using joint angles. 제31 항 내지 제35 항 중 어느 한 항에 있어서, 36. The method according to any one of claims 31 to 35, 상기 신체는 상기 사용자의 손가락에 해당하는 것을 특징으로 하고,Wherein the body corresponds to the finger of the user, 상기 선택된 정보를 입력할 정보로서 결정하는 정보 입력 방법에 있어서,And the selected information is determined as information to be input, (h) 상기 손가락 끝으로부터 세번째 관절의 움직임을 센싱하고, 상기 (b) 단계로 진행하는 단계를 더 구비하고,(h) sensing movement of the third joint from the fingertip, and proceeding to step (b) 상기 (b) 단계는 상기 (h) 단계에서 센싱된 결과로부터 상기 관절의 움직임의 정도를 제5 변위로서 산출하고,In the step (b), the degree of movement of the joint is calculated as a fifth displacement from the result sensed in step (h) 상기 (c) 단계는 상기 제5 변위를 이용하여 상기 사용자가 상기 선택한 정보를 상기 입력할 정보로서 결정할 의도가 있는가를 검사하고, 검사된 결과에 따라 상기 선택된 정보를 상기 입력할 정보로서 결정하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the step (c) comprises the step of checking whether the user intends to determine the selected information as the information to be input using the fifth displacement, and determining the selected information as the information to be input according to the result of the inspection A method of inputting information using the joint angles of the body. 제31 항 내지 제33 항 중 어느 한 항에 있어서, 상기 (c) 단계는34. The method according to any one of claims 31 to 33, wherein step (c) (c11) 제1 소정수의 소정의 제1 각도 범위들중에서, 상기 (b) 단계에서 산출된 상기 각도가 속하는 상기 제1 각도 범위를 선택하는 단계;(c11) selecting, among the first predetermined angular ranges of the first predetermined number, the first angular range to which the angle calculated in the step (b) belongs; (c12) 선택된 상기 제1 각도 범위와 매핑되는 상기 1차원적인 위치를 찾는 단계; 및(c12) finding the one-dimensional position to be mapped with the selected first angle range; And (c13) 찾아진 상기 1차원적인 위치와 매핑되는 정보를 찾고, 찾아진 정보를 상기 사용자가 선택한 정보로서 인식하는 단계를 구비하고,(c13) searching for the information mapped with the one-dimensional position searched, and recognizing the searched information as information selected by the user, 상기 제1 소정수는 상기 1차원적인 위치의 개수를 나타내는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the first predetermined number represents the number of the one-dimensional positions. 제37 항에 있어서, 상기 (c11) 단계는 상기 제1 각도 범위들중에서, 상기 (b) 단계에서 산출된 상기 각도와 상기 제1 변위에 해당하는 각도를 합한 결과가 속하는 상기 제1 각도 범위를 선택하고, 상기 (c12) 단계로 진행하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.The method as claimed in claim 37, wherein the step (c11) comprises: calculating a first angle range to which a result of adding the angle calculated in the step (b) and the angle corresponding to the first displacement among the first angle ranges And then proceeds to the step (c12). 제38 항에 있어서, 상기 (c11) 단계는 상기 합한 결과에 상기 제2 변위에 해당하는 각도를 합한 결과가 속하는 상기 제1 각도 범위를 선택하고, 상기 (c12) 단계로 진행하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.The method as claimed in claim 38, wherein, in the step (c11), the first angular range to which the result of adding the angles corresponding to the second displacement to the sum result belongs is selected, and the step (c12) Information input method using joint angle of body. 제34 항 또는 제35 항에 있어서, 상기 (c) 단계는36. The method of claim 34 or 35, wherein step (c) (c21) 제1 소정수의 소정의 제1 각도 범위들중에서 상기 (b) 단계에서 산출된 상기 각도가 속하는 상기 제1 각도 범위를 선택하고, 제2 소정수의 소정의 제2 각도 범위들중에서 상기 (b) 단계에서 산출된 상기 제3 변위가 속하는 상기 제2 각도 범위를 선택하는 단계;(c21) selecting the first angular range to which the angle calculated in the step (b) belongs from the first predetermined angular ranges of the first predetermined number, and Selecting the second angular range to which the third displacement calculated in the step (b) belongs; (c22) 선택된 상기 제1 각도 범위와 매핑되는 상기 1차원적인 위치를 찾고, 선택된 상기 제2 각도 범위와 매핑되는 1차원적인 위치를 찾는 단계; 및(c22) searching the one-dimensional position mapped with the selected first angle range and finding a one-dimensional position mapped with the selected second angle range; And (c23) 두 개의 상기 1차원적인 위치들로부터 상기 2차원적인 위치를 구하고, 상기 2차원적인 위치와 매칭되는 정보를 찾고, 찾아진 상기 정보를 상기 사용자가 선택한 정보로서 인식하는 단계를 구비하고,(c23) obtaining the two-dimensional position from the two one-dimensional positions, searching for information matched with the two-dimensional position, and recognizing the searched information as information selected by the user, 상기 제2 소정수는 상기 제2 각도 범위와 매핑될 수 있는 상기 1차원적인 위치의 개수를 나타내는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.Wherein the second predetermined number represents the number of the one-dimensional positions that can be mapped to the second angular range. 제40 항에 있어서, 상기 (c21) 단계는 상기 제2 각도 범위들중에서 상기 (b) 단계에서 산출된 상기 제3 변위와 상기 제4 변위를 합한 결과가 속하는 상기 제2 각도 범위를 선택하는 것을 특징으로 하는 신체의 관절 각도를 이용한 정보 입력 방법.The method of claim 40, wherein the step (c21) comprises: selecting the second angular range to which the result of summing the third displacement and the fourth displacement calculated in the step (b) among the second angular ranges belongs A method of inputting information using the joint angles of the body.
KR1020010041560A 2001-07-11 2001-07-11 Information input apparatus and method using joint angle of body KR100803200B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010041560A KR100803200B1 (en) 2001-07-11 2001-07-11 Information input apparatus and method using joint angle of body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010041560A KR100803200B1 (en) 2001-07-11 2001-07-11 Information input apparatus and method using joint angle of body

Publications (2)

Publication Number Publication Date
KR20030006020A KR20030006020A (en) 2003-01-23
KR100803200B1 true KR100803200B1 (en) 2008-02-14

Family

ID=27714465

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010041560A KR100803200B1 (en) 2001-07-11 2001-07-11 Information input apparatus and method using joint angle of body

Country Status (1)

Country Link
KR (1) KR100803200B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101853706B1 (en) * 2016-11-30 2018-05-02 (주)슈팅스 finger ring type sensing device having the middle between finger nodes

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100480770B1 (en) * 2001-07-12 2005-04-06 삼성전자주식회사 Method for pointing information in three-dimensional space
KR101413539B1 (en) * 2010-11-22 2014-07-02 한국전자통신연구원 Apparatus and Method of Inputting Control Signal by using Posture Recognition
KR101896590B1 (en) * 2017-05-08 2018-09-10 주식회사 엠셀 Apparatus for measuring angle of multi-joint and method for measuring the same
KR101971882B1 (en) 2017-08-18 2019-04-24 재단법인 실감교류인체감응솔루션연구단 Finger motion capture interface apparatus based on three-dimensional magnetic sensors
CN114327042B (en) * 2021-11-29 2023-12-22 京东方科技集团股份有限公司 Detection glove, gesture tracking method, AR equipment and key pressing method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950020083A (en) * 1993-12-28 1995-07-24 배순훈 Variable speed cursor position control device
KR970012096A (en) * 1995-08-04 1997-03-29 이상열 Input device and input method of computer using touch screen
KR19980036078A (en) * 1996-11-15 1998-08-05 배순훈 Hand joint sensor and glove input device using the same
KR19980053038A (en) * 1996-12-26 1998-09-25 배순훈 Glove sensor value transmission system and its method in virtual reality system
KR19990000239U (en) * 1997-06-05 1999-01-15 배순훈 Pointing devices for computers for the disabled
KR100244523B1 (en) * 1997-05-02 2000-02-01 정선종 Real-time interfacing for virtual environment
KR20000074930A (en) * 1999-05-27 2000-12-15 윤종용 apparatus for reforming object state in computing apparatus for touch pannel and method therefor
KR20010023426A (en) * 1998-06-30 2001-03-26 요트.게.아. 롤페즈 Fingerless glove for interacting with data processing system
KR20010106839A (en) * 2000-05-23 2001-12-07 허운 Motion Teaching System On Internet For Muman Booly Motion Limit Reoognization By Two Arises-Two Sensors Method
KR20020072081A (en) * 2001-03-08 2002-09-14 은탁 Virtual input device sensed finger motion and method thereof

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950020083A (en) * 1993-12-28 1995-07-24 배순훈 Variable speed cursor position control device
KR970012096A (en) * 1995-08-04 1997-03-29 이상열 Input device and input method of computer using touch screen
KR19980036078A (en) * 1996-11-15 1998-08-05 배순훈 Hand joint sensor and glove input device using the same
KR19980053038A (en) * 1996-12-26 1998-09-25 배순훈 Glove sensor value transmission system and its method in virtual reality system
KR100244523B1 (en) * 1997-05-02 2000-02-01 정선종 Real-time interfacing for virtual environment
KR19990000239U (en) * 1997-06-05 1999-01-15 배순훈 Pointing devices for computers for the disabled
KR20010023426A (en) * 1998-06-30 2001-03-26 요트.게.아. 롤페즈 Fingerless glove for interacting with data processing system
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
KR20000074930A (en) * 1999-05-27 2000-12-15 윤종용 apparatus for reforming object state in computing apparatus for touch pannel and method therefor
KR20010106839A (en) * 2000-05-23 2001-12-07 허운 Motion Teaching System On Internet For Muman Booly Motion Limit Reoognization By Two Arises-Two Sensors Method
KR20020072081A (en) * 2001-03-08 2002-09-14 은탁 Virtual input device sensed finger motion and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101853706B1 (en) * 2016-11-30 2018-05-02 (주)슈팅스 finger ring type sensing device having the middle between finger nodes
WO2018101667A3 (en) * 2016-11-30 2018-07-19 (주)슈팅스 Inter-finger joint worn ring-type device for sensing user manipulation

Also Published As

Publication number Publication date
KR20030006020A (en) 2003-01-23

Similar Documents

Publication Publication Date Title
KR100446613B1 (en) Information input method using wearable information input device
US11121719B2 (en) Method of detecting user input in a 3D space and a 3D input system employing same
US9367651B2 (en) 3D wearable glove scanner
US5175534A (en) Computer input device using the movements of a user's fingers
US6861945B2 (en) Information input device, information processing device and information input method
US7387592B2 (en) Virtual reality system locomotion interface utilizing a pressure-sensing mat
US20040169636A1 (en) Method and apparatus for selecting information in multi-dimesional space
EP2389622A1 (en) Device and method for monitoring an object's behavior
WO2006047018A2 (en) Input device for controlling movement in a three dimensional virtual environment
US10901506B2 (en) Finger-gesture detection device for control handle use in virtual reality, control assembly having the same and correction method for virtual reality system
WO2013055571A1 (en) Information input apparatus and method for controlling information input apparatus
US20060183601A1 (en) Virtual reality system locomotion interface utilizing a pressure-sensing mat
KR100803200B1 (en) Information input apparatus and method using joint angle of body
CN103294226A (en) Virtual input device and virtual input method
KR20100074461A (en) 3d mouse apparatus and method that control using action sense
KR100480770B1 (en) Method for pointing information in three-dimensional space
US6707445B1 (en) Input device
KR101211808B1 (en) Gesture cognitive device and method for recognizing gesture thereof
KR101686585B1 (en) A hand motion tracking system for a operating of rotary knob in virtual reality flighting simulator
US10884497B2 (en) Method and apparatus for motion capture interface using multiple fingers
KR102322968B1 (en) a short key instruction device using finger gestures and the short key instruction method using thereof
Campos et al. Touchscreen device layout based on thumb comfort and precision
JP2023180928A (en) input device
Kim Sensors and Input Processing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130130

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140128

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150129

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 9