KR100803200B1 - Information input apparatus and method using joint angle of body - Google Patents
Information input apparatus and method using joint angle of body Download PDFInfo
- Publication number
- KR100803200B1 KR100803200B1 KR1020010041560A KR20010041560A KR100803200B1 KR 100803200 B1 KR100803200 B1 KR 100803200B1 KR 1020010041560 A KR1020010041560 A KR 1020010041560A KR 20010041560 A KR20010041560 A KR 20010041560A KR 100803200 B1 KR100803200 B1 KR 100803200B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- sensing
- unit
- finger
- angle
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
신체의 관절 각도를 이용한 정보 입력 장치 및 방법이 개시된다. 이 장치는, 다수개의 정보들중 적어도 하나를 선택할 때 가변되는 사용자의 신체의 관절 각도를 검출하고, 검출된 관절 각도로부터 사용자가 선택한 적어도 하나의 정보를 결정하는 것을 특징으로 한다. 그러므로, 평면적으로 또는 공간적으로 선택된 정보를 손가락의 관절 각도를 이용하여 신속하고 편리하게 입력할 수 있는 효과를 갖는다.An information input apparatus and method using a joint angle of a body are disclosed. The apparatus is characterized in that it detects the joint angles of the user's body that vary when selecting at least one of the plurality of pieces of information and determines at least one piece of information selected by the user from the detected joint angles. Therefore, it is possible to quickly and conveniently input the information selected in a planar or spatially manner by using the joint angle of the finger.
Description
도 1은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 장치 및 방법을 설명하기 위한 도면이다.1 is a view for explaining an information input apparatus and method using a joint angle of a finger according to the present invention.
도 2는 센싱부에서 센싱되는 관절 각도를 설명하기 위한 손가락을 나타내는 도면이다.FIG. 2 is a view showing a finger for explaining the angle of the joint sensed by the sensing unit. FIG.
도 3은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 방법을 설명하기 위한 플로우차트이다.FIG. 3 is a flowchart for explaining an information input method using a joint angle of a finger according to the present invention.
도 4는 도 3에 도시된 정보 입력 방법을 수행하는 본 발명에 의한 정보 입력 장치의 바람직한 일 실시예의 블럭도이다.4 is a block diagram of a preferred embodiment of the information input apparatus according to the present invention for performing the information input method shown in FIG.
도 5는 도 4에 도시된 제1 센싱기의 본 발명에 의한 일 실시예의 외관을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an appearance of an embodiment of the first sensing device of FIG. 4 according to the present invention.
도 6은 도 5에 도시된 제1 센싱기의 등가 회로도이다.6 is an equivalent circuit diagram of the first sensing unit shown in FIG.
도 7은 도 4에 도시된 제1 센싱기의 본 발명에 의한 다른 실시예의 외관을 설명하기 위한 도면이다.FIG. 7 is a view for explaining an appearance of another embodiment of the first sensing device shown in FIG. 4 according to the present invention.
도 8 (a), (b) 및 (c)들은 도 4에 도시된 제1 센싱기의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면이다. 8 (a), (b) and (c) are views for explaining the appearance of another embodiment of the first sensing device shown in FIG. 4 according to the present invention.
도 9는 도 4에 도시된 제1 센싱기의 본 발명에 의한 또 다른 실시예의 블럭도이다.FIG. 9 is a block diagram of another embodiment of the first sensing device of FIG. 4 according to the present invention.
도 10은 도 4에 도시된 제1 센싱기의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면이다.FIG. 10 is a view for explaining the appearance of another embodiment of the first sensing device of FIG. 4 according to the present invention.
도 11은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 일 실시예를 설명하기 위한 플로우차트이다.FIG. 11 is a flowchart
도 12는 도 11에 도시된 제44A 단계를 수행하는 도 4에 도시된 정보 선택부의 본 발명에 의한 바람직한 실시예의 블럭도이다.FIG. 12 is a block diagram of a preferred embodiment of the information selector shown in FIG. 4 according to the present invention which performs
도 13은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 다른 실시예를 설명하기 위한 플로우차트이다.FIG. 13 is a flowchart for explaining another embodiment of the present invention in
도 14는 도 13에 도시된 제44B 단계를 수행하는 도 4에 도시된 정보 선택부의 본 발명에 의한 실시예의 블럭도이다.FIG. 14 is a block diagram of an embodiment of the information selector shown in FIG. 4 according to the present
본 발명은 개인용 컴퓨터, 개인용 디지탈 어시스턴스(PDA:Personal Digital Assitant) 또는 셀룰러 폰(cellular phone)등과 같이 외부로부터 정보를 입력하는 정보 입력 장치에 관한 것으로서, 특히 외부의 정보를 신체의 관절 각도를 이용하여 입력할 수 있는 정보 입력 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information input apparatus for inputting information from outside such as a personal computer, a personal digital assistant (PDA) or a cellular phone, The present invention relates to an information input device and a method for inputting information.
종래의 정보 입력 장치들중 하나는 현재 사람들에게 가장 익숙한 쿼리(QWERTY) 키보드이다. 그러나, 근래에는 쿼리 키보드 대신에, 사용자의 편리성과 휴대성을 고려하여 가상적으로 소프트웨어적으로 디스플레이되는 가상 키보드를 사용한다. 여기서, 가상 키보드는 1998년 7월 15일자로 "가상 키보드를 구비한 컴퓨터 시스템"이라는 제목으로 공개된 실용 신안 출원 번호 실1996-033413에 개시되어 있다. 개시된 실용 신안을 살펴보면, 모니터상에 팝업 디스플레이되는 가상 키보드상의 키를 선택하기 위해서 마우스(mouse)나 터치 패드(touch pad)를 사용한다. 따라서, 장시간에 걸쳐 키들을 선택하여야 하는 경우, 사용자가 키들을 입력하는 과정이 매우 번거롭고 피곤할 뿐만 아니라 키를 선택하는 시간도 길어지는 문제점들이 있다.One of the conventional information input devices is a QWERTY keyboard most familiar to people at present. However, in recent years, a virtual keyboard that is virtually displayed in software is used in consideration of convenience and portability of a user, instead of a query keyboard. Here, the virtual keyboard is disclosed in Utility Model Application No. 1996-033413, titled " Computer System with Virtual Keyboard "dated Jul. 15, 1998. In the disclosed utility model, a mouse or a touch pad is used to select a key on a virtual keyboard that is displayed on a pop-up display on a monitor. Therefore, when keys are to be selected over a long period of time, there are problems in that the process of inputting keys by the user is very cumbersome and tiresome, and also the time for selecting keys is lengthened.
이러한 문제점을 해결하기 위한 종래의 다른 정보 입력 장치는, 다수개의 2축 가속도 센서들을 부착한 장갑을 이용하여 평면적으로 외부의 사용자로부터 정보를 입력한다. 즉, 손가락 끝에 2축의 가속도 센서를 부착하고, 평면상에서 손가락을 움직이면, 손가락의 운동에 의한 가속도 신호가 출력된다. 이 때, 각각의 손가락에서 검출된 2축의 가속도 신호를 두 번 적분하면 평면상에서 그 손가락의 위치 정보를 파악할 수 있다. 이 때, 파악된 손가락의 위치 정보를 가상 키보드상의 키 위치와 비교함으로써 사용자가 입력하고자 하는 정보를 선택한다. 그러나, 이러한 종래의 정보 입력 장치는 가속도 센서가 갖는 오차 및 중력 가속도 등의 영향으로 인하여, 가속도 센서로부터 출력되는 가속도 신호에 에러가 발생하는 문제점이 있다. 즉, 에러를 갖는 가속도 신호를 두 번 적분하여 얻어지는 손가락의 위치 정보는 정확하지 않으며 발산할 수도 있어, 선택된 입력 정보의 신뢰성을 확보하기 어 렵다. 더우기, 이러한 종래의 정보 입력 장치는 평면적으로만 정보를 입력할 수 있으며 공간적으로는 정보를 입력할 수 없는 한계를 갖는다.In order to solve such a problem, another conventional information input device inputs information from an external user in a plan view using a glove having a plurality of two-axis acceleration sensors attached thereto. That is, when a two-axis acceleration sensor is attached to the fingertip and a finger is moved on the plane, an acceleration signal due to the motion of the finger is output. At this time, if the acceleration signals of the two axes detected by the respective fingers are integrated twice, the position information of the finger can be grasped on the plane. At this time, the position information of the detected finger is compared with the key position on the virtual keyboard to select information to be input by the user. However, in such a conventional information input apparatus, there is a problem that an error occurs in the acceleration signal outputted from the acceleration sensor due to the influence of the error and gravity acceleration of the acceleration sensor. That is, the positional information of the finger obtained by integrating the acceleration signal having the error twice is not accurate and can diverge, and it is difficult to secure the reliability of the selected input information. Moreover, such a conventional information input apparatus can input information only in a plane, and has a limitation that information can not be input spatially.
이러한 한계를 극복하며 공간적으로 정보를 입력할 수 있는 종래의 또 다른 정보 입력 장치가 미국 특허 번호 US4,414,537에 "Digital Data Entry Glove Interface Device"라는 제목으로 개시되어 있다. 개시된 종래의 정보 입력 장치는 공간적으로 선택된 정보를 인식하기 위해 손가락들간의 접촉을 감지하는 센서, 손 관절의 변화를 감지하는 센서 및 손의 움직임을 감지하는 센서를 부착한 장갑을 이용한다. 이 때, 장갑에 부착된 센서들에서 감지된 손가락들간의 접촉, 손 관절의 변화 및 손의 움직임으로부터 사용자가 공간적으로 형성한 손의 모양을 검출하고, 검출된 손의 전체적인 모양이 미리 정의된 모양들중 어느 모양과 일치하는가를 검사하며, 검사된 결과를 이용하여 사용자가 선택한 정보를 인식한다. 그러나, 이러한 종래의 정보 입력 장치는 사용자로 하여금 수화할 때와 마찬가지로 미리 정의된 형태의 손 모양만으로 정보를 선택할 것을 요구한다. 그러므로, 입력 정보 선택법을 익히기 위해 사용자는 많은 시간과 노력을 들여야하는 문제점이 있다.Another conventional information input device capable of spatially inputting information to overcome these limitations is disclosed in U.S. Patent No. 4,414,537 entitled " Digital Data Entry Glove Interface Device ". The disclosed conventional information input apparatus uses a glove having a sensor for detecting the contact between the fingers, a sensor for detecting the change of the hand joint, and a sensor for sensing the movement of the hand in order to recognize the spatially selected information. At this time, the shape of the hand spatially formed by the user is detected from the contact between the fingers sensed by the sensors attached to the glove, the change of the hand joint, and the motion of the hand, , And recognizes the information selected by the user using the checked result. However, these conventional information input devices require the user to select information in a hand shape of a predefined type just as when hydrating. Therefore, there is a problem that the user has to spend a lot of time and effort in order to learn input information selection method.
본 발명이 이루고자 하는 기술적 과제는, 평면적으로 또는 공간적으로 선택된 정보를 신체의 관절 각도를 이용하여 신속하고 편리하게 입력할 수 있는 신체의 관절 각도를 이용한 정보 입력 장치를 제공하는 데 있다.An object of the present invention is to provide an information input device using a joint angle of a body that can input information selected in a planar or spatially manner quickly and conveniently using a joint angle of the body.
본 발명이 이루고자 하는 다른 기술적 과제는, 상기 신체의 관절 각도를 이용한 정보 입력 장치에서 수행되는 정보 입력 방법을 제공하는 데 있다.According to another aspect of the present invention, there is provided an information input method performed by an information input apparatus using the joint angles of the body.
상기 과제를 이루기 위한 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치는, 다수개의 정보들중 적어도 하나를 선택할 때 가변되는 사용자의 신체의 관절 각도를 검출하고, 검출된 상기 관절 각도로부터 상기 사용자가 선택한 적어도 하나의 정보를 결정하는 것이 바람직하다.According to an aspect of the present invention, there is provided an information input apparatus using a joint angle of a human body, the apparatus comprising: a joint angle detecting unit that detects a joint angle of a user's body that varies when selecting at least one of a plurality of pieces of information, It is desirable to determine at least one piece of information selected.
상기 다른 과제를 이루기 위한 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 방법은, 다수개의 정보들중 적어도 하나를 선택할 때 가변되는 사용자의 신체의 관절 각도를 구하고, 구해진 상기 각도를 이용하여 상기 사용자가 선택한 적어도 하나의 정보를 결정하는 것이 바람직하다.According to another aspect of the present invention, there is provided a method of inputting information using a joint angle of a human body, the method comprising: obtaining a joint angle of a user's body that varies when selecting at least one of a plurality of pieces of information; It is desirable to determine at least one piece of information selected.
이하, 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 방법 및 장치를 다음과 같이 살펴본다.Hereinafter, a method and apparatus for inputting information using the joint angles of the body according to the present invention will be described as follows.
본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치 및 방법은, 사용자가 다수개의 정보들중에서 적어도 하나를 선택하고자 신체의 관절을 구부릴 때, 사용자의 신체의 가변되는 관절의 각도를 검출하고, 검출된 관절 각도로부터 사용자가 선택한 적어도 하나의 정보를 결정한다. 이 때, 다수개의 정보들은 사용자에게 디스플레이되는 정보 화면에 표시될 수 있다. 따라서, 사용자는 정보 화면에 표시된 정보들중 적어도 하나를 신체를 구부려서 선택할 수 있다.An apparatus and method for inputting information using a joint angle of a human body according to the present invention is characterized in that when a user bends a joint of the body in order to select at least one of a plurality of pieces of information, And determines at least one piece of information selected by the user from the joint angles. At this time, a plurality of pieces of information can be displayed on the information screen displayed to the user. Accordingly, the user can select at least one of the information displayed on the information screen by bending the body.
본 발명에 의하면, 정보를 선택하기 위해 구부려지는 관절을 포함하는 신체는 손가락, 발가락, 팔, 다리 또는 목 등과 같이 신체에서 관절을 포함하는 어느 부분이 될 수도 있다. 왜냐하면, 정보를 선택하고자 하는 사용자가 손과 발을 사용 할 수 없는 장애인일 경우, 손과 발 이외에 관절을 갖는 신체의 다른 부위의 관절을 움직여서 장애인도 원하는 정보를 선택할 수 있도록 하기 위함이다.According to the present invention, a body including a joint that is bent to select information may be any portion including a joint in the body, such as a finger, a toe, an arm, a leg, or a neck. This is because, if the user who wants to select information is a disabled person who can not use his / her hands and feet, he / she can move the joints of other parts of the body having joints besides the hands and feet so that the disabled can also select the desired information.
이하, 본 발명의 이해를 돕기 위해, 사용자의 신체는 손가락이고, 다수개의 정보들은 디스플레이되는 정보 화면에 표시된다고 가정하면서, 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 방법과 그 방법을 수행하는 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, in order to facilitate understanding of the present invention, it is assumed that the user's body is a finger, and that a plurality of pieces of information are displayed on a displayed information screen, a method of inputting information using a joint angle of a body according to the present invention, The configuration and operation of the information input apparatus using the joint angles of the body according to the present invention will now be described with reference to the accompanying drawings.
도 1은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 장치 및 방법을 설명하기 위한 도면으로서, 모니터(10)와 센싱부(20)로 구성된다.FIG. 1 is a view for explaining an apparatus and method for inputting information using a joint angle of a finger according to the present invention, and includes a
도 2는 센싱부(20)에서 센싱되는 관절 각도(θ)를 설명하기 위한 손가락(22)을 나타낸다.Fig. 2 shows a
도 1 및 2를 참조하면, 사용자는 모니터(10)를 통해 디스플레이되는 정보 화면을 보면서 다수개의 정보들중 입력하기를 원하는 정보를 선택하기 위해 손가락(22)을 아래 또는 윗 방향(32)으로 구부린다. 이 때, 본 발명에 의한 정보 입력 장치는 센싱부(20)를 이용하여 손가락(22)의 구부림을 센싱하고, 센싱된 결과로부터 손가락(22)의 관절 각도(θ)를 검출하고, 검출된 관절 각도(θ)이용하여 사용자가 입력하기를 원하는 정보를 선택한다. 여기서, 정보 화면은 소프트웨어적으로 디스플레이되어 다수개의 정보들을 표시하며, 가상 키보드(12) 형태로 표현될 수도 있고, 가상 마우스(16) 형태로 표현될 수도 있고 또는 가상 리모콘(18) 형태로 표현될 수도 있다. 만일, 정보 화면이 가상 키보드(12) 형태로 표현될 때, 사용 자에 의해 선택되는 정보는 키 데이타에 해당한다. 그 밖에, 본 발명에 의하면 정보 화면은 오락, 의료 진단 또는 가상 현실등을 위해 사용자에 의해 미리 만들어진 소정의 패턴을 가질 수 있다.Referring to FIGS. 1 and 2, the user views the information screen displayed on the
도 3은 본 발명에 의한 손가락의 관절 각도를 이용한 정보 입력 방법을 설명하기 위한 플로우차트로서, 손가락이나 손의 움직임으로부터 필요한 정보를 산출하는 단계(제40 및 제42 단계들) 및 산출된 정보로부터 찾은 1차원적인 위치에 존재하는 정보를 선택하는 단계(제44 단계)로 이루어진다.FIG. 3 is a flowchart for explaining a method of inputting information using a joint angle of a finger according to the present invention, which includes steps (
도 4는 도 3에 도시된 정보 입력 방법을 수행하는 본 발명에 의한 정보 입력 장치의 바람직한 일 실시예의 블럭도로서, 센싱부(20A), 아날로그/디지탈 변환부(ADC:Analog to Digital Converter)(62), 신호 처리부(64), 인터페이스부(66) 및 정보 선택부(68)로 구성된다.FIG. 4 is a block diagram of a preferred embodiment of the information input apparatus according to the present invention for performing the information input method shown in FIG. 3, and includes a
도 4에 도시된 센싱부(20A)는 도 1에 도시된 센싱부(20)의 실시예로서, 제2 ∼ 제6 센싱기들(82, 84, 86, 88 및 90)중에서 적어도 하나 이상과 제1 센싱기(80)로 구성된다. 여기서, 제1, 제2, 제3, 제4, 제5 및 제6 센싱기들(80, 82, 84, 86, 88 및 90) 각각은 장갑 형태로 손과 손가락에 씌워지는 부재에 부착될 수 있다.The
먼저, 제1 센싱기(80)는 사용자가 정보 화면을 보면서 정보 화면상에 존재하는 정보들중에서 원하는 정보를 선택하기 위해 적어도 하나 이상의 손가락(22)을 구부릴 때, 손가락(22)의 구부림을 센싱하고, 센싱된 결과를 출력한다(제40 단계). 여기서, 제1 센싱기(80)로부터 출력되는 센싱된 결과는 제1 센싱기(80)가 구현되는 모습에 따라 아날로그 또는 디지탈 형태가 될 수 있다. 만일, 제1 센싱기(80)로부 터 출력되는 센싱된 결과가 아날로그 형태인 경우, 도 4에 도시된 바와 같이 센싱부(20A)와 신호 처리부(64) 사이에 ADC(62)가 부가적으로 마련된다. ADC(62)는 센싱부(20A)로부터 출력되는 적어도 하나 이상의 센싱된 결과를 디지탈 형태로 변환하고, 변환된 결과를 신호 처리부(64)로 출력한다. 예를 들면, ADC(62)는 센싱부(20A)로부터 출력되는 아날로그 형태의 전압을 펄스 폭 변조(PWM:Pulse Width Modulation)하고, 펄스 폭 변조된 결과를 신호 처리부(64)로 출력할 수 있다.First, the
이하, 제1 센싱기(80)의 본 발명에 의한 바람직한 실시예들 각각의 구성 및 동작을 첨부된 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, the configuration and operation of each of the preferred embodiments of the
도 5는 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 일 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(90) 및 장갑(90)에 부착되는 제1 센싱기(100)로 구성된다.5 is a view for explaining the appearance of an embodiment of the present invention of the
도 5를 참조하면, 제1 센싱기(100)는 손가락(22)의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되어 손가락(22)을 위나 아래로 구부린 각도(θ)에 따라 저항을 가변시키고, 가변된 저항에 상응하는 레벨을 갖는 센싱된 결과를 출력하는 가변 저항으로 구현될 수 있다. 여기서, 손가락(22)의 한 쪽 마디 및 다른 쪽 마디는 도 5에 도시된 바와 같이 손가락(22) 끝으로부터 세 번째 마디(106) 및 두 번째 마디(102)가 될 수도 있고, 도 5에 도시된 바와 달리, 손가락(22) 끝으로부터 세 번째 마디(106) 및 첫 번째 마디(104)가 될 수도 있다.5, the
이를 위해, 제1 센싱기(100)는 제1 고정 부재(94), 제1 유동 부재(92) 및 중 심축(96)으로 구현될 수 있다. 제1 고정 부재(94)는 손가락(22)의 한 쪽 마디에 부착되고, 제1 유동 부재(92)는 손가락의 다른 쪽 마디에 부착되며, 제1 고정 부재(94)와 제1 유동 부재(92)는 중심축(96)에 의해 서로 연결되어 연동 운동을 한다. 여기서, 손가락(22)이 아래 또는 위 방향(86)으로 구부려질 때, 제1 고정 부재(94)는 움직이지 않으나 제1 유동 부재(96)는 움직임을 알 수 있다. 따라서, 제1 유동 부재(92)가 움직임에 따라 제1 센싱기(100)는 다음과 같이 저항을 가변시킨다.To this end, the
도 6은 도 5에 도시된 제1 센싱기(100)의 등가 회로도로서, 저항들(R1 및 R2)로 구성된다.Fig. 6 is an equivalent circuit diagram of the
도 6을 참조하면, 손가락(22)이 구부려지지 않고 곧게 펴진 상태에서, 저항들(R1 및 R2)은 동일한 값을 유지하고, 손가락(22)이 아래 방향으로 구부려짐에 따라 저항(R1)의 값과 저항(R2)의 값은 서로 달라진다. 그러므로, 손가락(22)이 구부려짐에 따라 출력단자 OUT2를 통해 출력되는 전압값은 변동한다. 결국, 도 5에 도시된 제1 센싱기(100)는 손가락(22)이 구부려짐에 따라 가변되는 레벨을 갖는 전압을 센싱된 결과로서 출력함을 알 수 있다.6, in a state in which the
도 7은 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(118) 및 장갑(118)에 부착되는 제1 센싱기(140)로 구성된다.7 is a view for explaining the appearance of another embodiment of the present invention of the
도 7을 참조하면, 제1 센싱기(140)는 손가락(22)의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되며 손가락(22)을 구부린 각도(θ)에 따라 커패시턴스를 가변시 키고, 가변된 커패시턴스에 상응하는 레벨을 갖는 센싱된 결과를 출력하는 가변 커패시터 즉, 트리머(trimmer) 커패시터로 구현될 수 있다. 여기서, 손가락(22)의 한 쪽 마디 및 다른 쪽 마디는 도 7에 도시된 바와 같이 손가락(22) 끝으로부터 세 번째 마디(110) 및 두 번째 마디(112)가 각각 될 수도 있고, 도 7에 도시된 바와 달리, 손가락(22) 끝으로부터 세 번째 마디(110) 및 첫 번째 마디(114)가 각각 될 수도 있다.7, the
이를 위해, 제1 센싱기(140)는 제2 고정 부재(122) 및 제2 유동 부재(120)로 구현될 수 있다. 제2 고정 부재(122)는 손가락(22)의 한 쪽 마디에 부착되며 부도체(124) 및 도체(126)를 갖고, 제2 유동 부재(120)는 손가락(22)의 다른 쪽 마디에 부착되며 부도체(128) 및 도체(130)를 갖는다. 여기서, 손가락(22)이 구부려짐에 따라 즉, 손가락(22)이 위 또는 아래 방향(116)로 움직임에 따라 제2 고정 부재(122)는 움직이지 않으나 제2 유동 부재(120)는 움직임을 알 수 있다. 따라서, 제2 고정 부재(122)의 도체(126)와 제2 유동 부재(120)의 도체(130)가 서로 마주보는 면적이 손가락(22)의 구부려짐에 따라 변하게 되며, 이러한 마주보는 면적의 변화로 인해 커패시턴스가 변한다. 이 때, 제1 센싱기(140)는 이러한 커패시턴스의 변화량에 상응하여 가변되는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.For this, the
도 8 (a), (b) 및 (c)들은 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(162) 및 장갑(162)에 부착되는 제1 센싱기(160)로 구성된다.
8 (a), 8 (b) and 8 (c) are views for explaining the appearance of another embodiment of the
도 8 (a), (b) 및 (c)들을 참조하면, 제1 센싱기(160)는 손가락(22)의 마디들중 어느 한 쪽에도 마련될 수 있으며, 손가락(22)을 구부린 각도를 센싱하고, 센싱된 결과를 출력하는 관성 센서로 구현될 수 있다. 여기서, 관성 센서(160)는 도 8 (a)에 도시된 바와 같이 손가락(22) 끝으로부터 세 번째 마디(170)에 부착될 수도 있고, 도 8 (b)에 도시된 바와 같이 손가락(22) 끝으로부터 두 번째 마디(172)에 부착될 수도 있고, 도 8 (c)에 도시된 바와 같이 손가락(22) 끝으로부터 첫 번째 마디(174)에 부착될 수도 있다. 이를 위해, 관성 센서(160)는 자이로 센서(미도시) 및 가속도 센서(미도시)로 구현될 수 있다. 만일, 관성 센서(160)가 자이로 센서로 구현될 경우, 관성 센서(160)는 손가락(22)이 위 또는 아래 방향(164)으로 구부려짐에 따라 가변되는 각속도를 검출하고, 검출된 각속도에 상응하는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다. 그러나, 관성 센서(160)가 가속도 센서로 구현될 경우, 관성 센서(160)는 손가락(22)이 위 또는 아래 방향(164)으로 구부려짐에 따라 가변되는 가속도를 검출하고, 검출된 가속도에 상응하는 레벨을 갖는 디지탈 또는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.Referring to FIGS. 8A, 8B, and 8C, the
도 9는 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 또 다른 실시예의 블럭도로서, 발광부(190), 회전 원판(192) 및 수광부(194)로 구성된다.FIG. 9 is a block diagram of another embodiment of the
도 9를 참조하면, 회전 원판(192)은 손가락(22)이 구부려질 때 중심축(200)을 기준으로 시계나 반시계 방향(198)으로 회전하며 그의 외측에 복수개의 홈들(196)을 마련하고 있다. 이 때, 발광부(190)는 회전 원판(192)의 홈(196)에 빛 을 조사하고, 수광부(194)는 홈(196)을 통과한 빛을 수광하고, 수광된 빛을 전기적인 신호로 변환하며, 변환된 전기적인 신호를 센싱된 결과로서 출력단자 OUT3을 통해 출력한다. 예를 들면, 정보를 선택하고자 하는 사용자가 손가락(22)을 구부릴 때 회전 원판(192)은 시계 방향이나 반 시계 방향(198)으로 회전하며, 수광부(194)는 회전 원판(192)이 회전함에 따라 시간당 발생되는 펄스의 개수를 달리 갖는 디지탈 형태의 전기적인 신호를 출력단자 OUT3을 통해 출력한다. 따라서, 이 경우, 도 4에 도시된 ADC(62)는 필요하지 않게 된다. 도 9에 도시된 제1 센싱기는 회전 인코더(rotary encoder)의 구성 및 동작과 동일함을 알 수 있다.9, the
도 10은 도 4에 도시된 제1 센싱기(80)의 본 발명에 의한 또 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(22)에 씌워지는 장갑(210) 및 장갑(210)에 부착되는 제1 센싱기(230)로 구성된다.FIG. 10 is a view for explaining an appearance of another embodiment of the present invention of the
도 10을 참조하면, 제1 센싱기(230)는 자석(214) 및 자속 방향 측정부(212)로 구성된다. 여기서, 자석(214)은 손가락(22)의 한 쪽 마디에 마련되고, 자속 방향 측정부(212)는 손가락(22)의 다른 쪽 마디에서 자석(214)으로부터 발생되는 자속이 흐르는 방향으로 위치되어 자속이 흐르는 방향을 측정하고, 측정된 방향을 센싱된 결과로서 출력한다. 여기서, 손가락(22)의 한 쪽 마디는 손가락(22)의 바깥쪽 마디에 해당하고, 손가락(22)의 다른 쪽 마디는 손가락(22)의 안쪽 마디에 해당하는 것이 바람직하다. 왜냐하면, 자속 방향 측정부(212)의 출력은 ADC(62)와 유선으로 연결될 수 있으므로 움직이지 않은 안쪽 마디에 마련되는 것이 바람직하고, 자석(214)은 움직이는 바깥쪽 마디에 마련되는 것이 바람직하다. 이 때, 도 10에 도 시된 바와 같이 손가락(22)의 바깥 쪽 마디는 손가락(22) 끝으로부터 두 번째 마디(222)에 해당하고, 손가락(22)의 안 쪽 마디는 손가락(22)의 끝으로부터 세 번째 마디(220)에 해당할 수도 있고, 도 10에 도시된 바와 달리, 손가락(22)의 바깥 쪽 마디는 손가락(22)의 끝으로부터 첫 번째 마디(224)에 해당하고, 손가락(22)의 안 쪽 마디는 손가락(22)의 끝으로부터 세 번째 마디(220)에 해당할 수도 있다. 이 때, 자속 방향 측정부(212)는 손가락(22)이 위 또는 아래 방향(226)으로 구부려짐에 따라 가변되는 자속의 방향을 검출하고, 검출된 방향을 아날로그 형태의 센싱된 결과로서 출력한다. 이를 위해, 자속 방향 측정부(212)는 자이언트 마그네토 레지스티브(GMR:Giant Magneto Resistive) 센서(미도시)로 구현될 수 있다.Referring to FIG. 10, the
전술한 제1 센싱기(80) 및 그의 실시예들은 오른손 및/또는 왼손의 손가락들중 적어도 하나에서 어느 마디에도 부착될 수 있다. 그러나, 전술한 바와 같이. 제1 센싱기(80) 및 그의 실시예들은 사용자가 정보를 선택하기 위해서 손가락(22)을 구부릴 때, 손가락(22)의 구부러진 각도가 최대로 변하는 부분에 마련되는 것이 바람직하다.The above-described
한편, 도 4에 도시된 센싱부(20A)는 손가락(22)의 구부림 뿐만 아니라 손이나 손가락(22)의 다른 움직임을 다음과 같이 센싱할 수 있다(제40 단계). 이를 위해, 제2 센싱기(82)는 손가락(22)의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 제3 센싱기(84)는 손의 위쪽 또는 아래쪽 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 또한, 제4 센싱기(86)는 손의 좌(또는, 왼쪽) 또는 우(또는, 오른쪽) 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 또한, 제5 센싱기(88)는 손가락(22)의 좌 또는 우 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 이 때, 제6 센싱기(90)는 손가락(22) 끝으로부터 세번째 관절(24)의 움직임을 센싱하고, 센싱된 결과를 출력하는 역할을 하며, 손가락(22)의 첫 번째 마디(26), 두 번째 마디(28) 또는 세 번째 마디(30)에 마련될 수 있다. 여기서, 제2, 제5 및/또는 제6 센싱기들(82, 88 및/또는 90)은 오른손 및/또는 왼손의 적어도 하나 이상의 손가락(22)의 어느 마디에도 마련될 수 있고, 제3 및/또는 제4 센싱기(84 및/또는 86)는 오른손 및/또는 왼손의 손등 및/또는 손바닥에 마련될 수 있다. 그러나, 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각은 손이나 손가락의 움직임이 최대로 되는 변하는 마디에 마련되는 것이 바람직하다.The
본 발명에 의하면, 도 4에 도시된 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각은 관성 센서로 구현될 수 있다. 예컨데, 제2, 제5 또는 제6 센싱기(82, 88 또는 90)를 구현하는 관성 센서(미도시)는 손가락(22)에 부착되어 손가락의 상하, 좌우 또는 세번째 관절(24)의 움직임을 각각 센싱하고, 센싱된 결과를 출력한다. 제3 또는 제4 센싱기(84 또는 86)를 구현하는 관성 센서(미도시)는 손에 부착되어 손의 상하 또는 좌우 움직임을 각각 센싱하고, 센싱된 결과를 출력한다. 여기서, 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각을 구현하는 관성 센서는 자이로 센서(미도시) 또는 가속도 센서(미도시)로 구현될 수 있다. 만일, 관성 센서가 자이로 센서로 구현될 경우, 관성 센서는 손이나 손가락의 움직임에 따라 변하는 각속도에 상응하는 레벨을 갖는 아날로그 형태의 전압 을 센싱된 결과로서 출력한다. 그러나, 관성 센서가 가속도 센서로 구현될 경우, 관성 센서는 손이나 손가락의 움직임에 따라 변하는 가속도에 상응하는 레벨을 갖는 디지탈 또는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.According to the present invention, each of the second, third, fourth, fifth and
전술한 제2, 제3, 제4 및 제5 센싱기들(82, 84, 86 및 88)로부터 출력되는 센싱된 결과들은 정보 화면에서 사용자가 선택한 정보를 인식하기 위해서 사용된다. 그러나, 제6 센싱기(90)로부터 출력되는 센싱된 결과는 정보 화면에서 선택된 정보를 사용자가 입력하고자 하는가를 결정하기 위해서 사용된다.The sensed results output from the second, third, fourth and
한편, 제40 단계후에, 신호 처리부(64)는 손가락(22)의 구부려진 각도(θ)를 제1 센싱기(80)로부터 입력한 센싱된 결과로부터 산출한다(제42 단계). 만일, 제1 센싱기(80)가 도 5, 도 7, 도 8 (a), (b) 또는 (c)에 도시된 바와 같이 구현될 경우, 신호 처리부(64)는 가변된 저항값, 가변된 커패시턴스, 가변된 각속도 또는 가속도에 상응하는 레벨을 갖는 디지탈 형태의 전압으로부터 손가락(22)의 구부러진 각도(θ)를 산출한다. 그러나, 제1 센싱기(80)가 도 9에 도시된 바와 같이 구현될 경우, 신호 처리부(64)는 수광부(194)로부터 입력한 전기적인 신호가 갖는 단위 시간당 펄스의 갯수를 카운팅하고, 카운팅된 결과로부터 손가락(22)의 구부러진 각도(θ)를 산출한다. 또한, 제1 센싱기(80)가 도 10에 도시된 바와 같이 구현될 경우, 신호 처리부(64)는 자속 방향 측정부(212)로부터 입력한 방향으로부터 각도를 산출한다.After
또한, 전술한 바와 같이 각도를 산출할 뿐만 아니라, 제40 단계후에, 신호 처리부(64)는 손 및/또는 손가락(22)의 움직임을 센싱한 결과로부터 필요한 정보 즉, 각종 변위를 산출할 수도 있다(제42 단계). 이를 위해, 신호 처리부(64)는 제2 센싱기(82)에서 센싱된 결과로부터 손가락(22)의 위쪽 또는 아래쪽 방향의 움직임의 정도를 제1 변위로서 산출하고, 제3 센싱기(84)에서 센싱된 결과로부터 손의 위쪽 또는 아래쪽 방향의 움직임의 정도를 제2 변위로서 산출하며, 제4 센싱기(86)에서 센싱된 결과로부터 손의 오른쪽 또는 왼쪽 방향의 움직임의 정도를 제3 변위로서 산출하고, 제5 센싱기(88)에서 센싱된 결과로부터 손가락(22)의 오른쪽 또는 왼쪽 방향의 움직임의 정도를 제4 변위로서 산출하고, 제6 센싱기(90)에서 센싱된 결과로부터 손가락(22)의 끝에서부터 세번째 관절(24)의 움직임의 정도를 제5 변위로서 산출한다.In addition to calculating the angle as described above, after
이 때, ADC(62)가 마련될 경우, 신호 처리부(64)는 ADC(62)로부터 입력한 디지탈 형태의 센싱된 결과로부터 각도 및/또는 해당하는 변위를 산출하지만, ADC(62)가 마련되지 않을 경우 센싱부(20A)로부터 입력한 센싱된 결과로부터 각도 및/또는 해당하는 변위를 산출한다. 또한, 도 4에 도시된 신호 처리부(64)와 정보 선택부(68) 사이에 선택적으로 마련되는 인터페이스부(66)는 신호 처리부(64)로부터 입력한 각도 및/또는 각종 변위를 전송 형태로 변환하고, 변환된 각도나 각종 변위를 정보 선택부(68)로 유선 또는 무선으로 전송한다.At this time, when the
한편, 본 발명의 일 실시예에 의하면, 센싱부(20A)가 제1 센싱기(80)로만 구성될 경우, 제42 단계후에, 정보 선택부(68)는 신호 처리부(64)에서 산출된 각도로부터 정보 화면에서의 1차원적인 위치를 결정하고, 결정된 1차원적인 위치에 존재하는 정보를 사용자가 선택한 정보로서 결정하고, 결정된 정보를 출력단자 OUT1을 통해 출력한다(제44 단계). 여기서, 1차원적인 위치란, 정보 화면에서 수평 방향으로의 위치 또는 수직 방향으로의 위치가 될 수 있다.According to an embodiment of the present invention, when the
본 발명의 다른 실시예에 의하면, 센싱부(20A)가 제1 센싱기(80) 뿐만 아니라 제2 또는/및 제3 센싱기(82 또는/및 84)를 부가적으로 마련할 경우, 제42 단계후에, 정보 선택부(68)는 제1 또는/및 제2 변위와 각도로부터 정보 화면의 1차원적인 위치를 결정하고, 결정된 1차원적인 위치에 존재하는 정보를 사용자가 선택한 정보로서 결정하고, 결정된 정보를 출력단자 OUT1을 통해 출력한다(제44 단계).According to another embodiment of the present invention, when the
이하, 제44 단계에 대한 본 발명에 의한 바람직한 일 실시예(44A) 및 그 실시예(44A)를 수행하는 본 발명에 의한 정보 선택부(68)의 실시예의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, referring to the drawings attached to the configuration and operation of the embodiment of the
도 11은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 일 실시예(44A)를 설명하기 위한 플로우차트로서, 제1 각도 범위들중 해당하는 제1 각도 범위로부터 찾은 1차원적인 위치에 있는 정보를 찾는 단계(제250 ∼ 제254 단계들)로 이루어진다.FIG. 11 is a flowchart for explaining an
도 12는 도 11에 도시된 제44A 단계를 수행하는 도 4에 도시된 정보 선택부(68)의 본 발명에 의한 바람직한 실시예(68A)의 블럭도로서, 제1 각도 범위 결정부(270), 제1 위치 매핑부(272) 및 정보 인식부(274)로 구성된다.FIG. 12 is a block diagram of a
제42 단계후에, 제1 소정수의 소정의 제1 각도 범위들중에서 해당하는 제1 각도 범위를 선택한다(제250 단계). 여기서, 제1 소정수는 1차원적인 위치의 개수를 나타내며, 정보 화면에서 수평 또는 수직 방향으로 존재하는 정보의 개수를 의 미한다.After
먼저, 신호 처리부(64)가 각도만을 산출하였다면, 제250 단계를 수행하기 위해, 제1 각도 범위 결정부(270)는 신호 처리부(64)로부터 입력단자 IN1을 통해 입력한 각도와 제1 소정수의 소정의 제1 각도 범위들을 비교하고, 산출된 각도가 속하는 제1 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 제1 각도 범위를 제1 위치 매핑부(272)로 출력한다. 예를 들면, 각도가 0 ∼ 90°사이에서 산출될 수 있고 제1 소정수는 '3'이며 제1 각도 범위들은 0 ∼ 30°, 30 ∼ 60°및 60 ∼ 90°라고 가정할 때, 제1 각도 범위 결정부(270)는 신호 처리부(64)에서 산출된 각도가 세 개의 제1 각도 범위들중 어느 범위에 속하는가를 결정한다(제250 단계).First, if the
또한, 신호 처리부(64)가 각도와 제1 또는/및 제2 변위를 산출하였다면, 제250 단계를 수행하기 위해, 제1 각도 범위 결정부(270)는 신호 처리부(64)로부터 입력단자 IN1을 통해 각도와 제1 또는/및 제2 변위를 입력하고, 입력한 각도와 제1 또는/및 제2 변위에 해당하는 각도를 합한 결과가 속하는 해당하는 제1 각도 범위를 선택한다.If the
제250 단계후에, 선택된 제1 각도 범위와 매핑되는 1차원적인 위치를 찾는다(제252 단계). 이를 수행하기 위해, 제1 위치 매핑부(272)는 제1 각도 범위 결정부(270)로부터 입력한 제1 각도 범위와 매핑되는 1차원적인 위치를 검색하고, 검색된 1차원적인 위치를 정보 인식부(274)로 출력한다.After
제252 단계후에, 검색된 1차원적인 위치와 매핑되는 정보를 찾고, 찾아진 정보를 사용자가 선택한 정보로서 인식한다(제254 단계). 이를 위해, 정보 인식부(274)는 제1 위치 매칭부(272)로부터 입력한 1차원적인 위치와 매핑되는 정보를 검색하고, 검색된 정보를 사용자가 선택한 정보로서 인식하고, 인식한 정보를 출력단자 OUT4를 통해 출력한다. 이를 위해, 정보 인식부(274)는 1차원적인 위치들에 존재하는 정보들 또는 그 정보들의 좌표값들을 미리 저장하는 저장부(미도시)와 제1 위치 매핑부(272)로부터 입력한 1차원적인 위치를 어드레스로하여 저장부에 저장된 정보나 좌표값을 독출시키는 독출부(미도시)로 구현될 수 있다.After
본 발명의 또 다른 실시예에 의하면, 센싱부(20A)가 제1 센싱기(80) 뿐만 아니라 제4 또는/및 제5 센싱기(86 또는/및 88)를 부가적으로 마련할 경우, 제42 단계후에, 정보 선택부(68)는 제3 또는/및 제4 변위와 각도로부터 정보 화면에서의 2차원적인 위치를 결정하고, 결정된 2차원적인 위치에 존재하는 정보를 사용자가 선택한 정보로서 결정한다(제44 단계). 여기서, 2차원적인 위치란, 정보 화면에서 수평 및 수직 방향들에서의 위치를 의미한다. 예를 들어, 정보 화면이 도 1에 도시된 바와 같이 가상 키보드(12)일 경우, 2차원적인 위치란 해당하는 키가 위치하는 행 및 열의 좌표를 의미한다.According to another embodiment of the present invention, when the
이하, 제44 단계에 대한 본 발명에 의한 바람직한 다른 실시예(44B) 및 그 실시예(44B)를 수행하는 본 발명에 의한 정보 선택부(68)의 실시예의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, referring to the drawings attached to the construction and operation of the embodiment of the
도 13은 도 3에 도시된 제44 단계에 대한 본 발명에 의한 다른 실시예(44B)를 설명하기 위한 플로우차트로서, 제1 각도 범위들중 해당하는 제1 각도 범위와 제2 각도 범위들중 해당하는 제2 각도 범위로부터 1차원적인 위치들을 찾는 단계( 제290 및 제292 단계들) 및 1차원적인 위치들로부터 찾은 2차원 위치를 이용하여 정보를 찾는 단계(제294 단계들)로 이루어진다.FIG. 13 is a flow chart for explaining another
도 14는 도 13에 도시된 제44B 단계를 수행하는 도 4에 도시된 정보 선택부(68)의 본 발명에 의한 실시예(68B)의 블럭도로서, 제1 및 제2 각도 범위 결정부들(270 및 310), 제1 및 제2 위치 매핑부들(272 및 312) 및 정보 인식부(314)로 구성된다.14 is a block diagram of an
제42 단계후에, 제1 소정수의 제1 각도 범위들중에서 해당하는 제1 각도 범위를 선택하고, 제2 소정수의 소정의 제2 각도 범위들중에서 해당하는 제2 각도 범위를 선택한다(제290 단계). 여기서, 제2 소정수는 제2 각도 범위들과 매핑될 수 있는 1차원적인 위치의 개수를 나타낸다. 만일, 제1 소정수가 정보 화면에서 수평 방향으로 존재하는 정보의 개수를 나타낸다면 제2 소정수는 정보 화면에서 수직 방향으로 존재하는 정보의 개수를 나타내고, 제1 소정수가 정보 화면에서 수직 방향으로 존재하는 정보의 개수를 나타낸다면 제2 소정수는 정보 화면에서 수평 방향으로 존재하는 정보의 개수를 나타낸다.After
제290 단계에서, 해당하는 제1 각도 범위를 선택하는 과정에 대한 설명은 전술한 제250 단계와 동일하므로 생략한다. 즉, 해당하는 제1 각도 범위는 도 12에 도시된 제1 각도 범위 결정부(270)와 동일한 도 14에 도시된 제1 각도 범위 결정부(270)에서 선택된다. 이 때, 해당하는 제2 각도 범위를 선택하기 위해, 제2 각도 범위 결정부(310)는 제2 소정수의 소정의 제2 각도 범위들을 신호 처리부(64)로부터 입력단자 IN2를 통해 입력한 제3 및/또는 제4 변위와 비교하고, 제3 및/또 는 제4 변위가 속하는 제2 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 제2 각도 범위를 제2 위치 매핑부(312)로 출력한다. 예컨데, 제3 또는/및 제4 변위가 산출되었을 경우, 제2 각도 범위 결정부(310)는 신호 처리부(64)에서 산출된 제3 또는/및 제4 변위에 속하는 해당하는 제2 각도 범위를 제2 소정수의 제2 각도 범위들중에서 선택한다.In
제290 단계후에, 선택된 제1 각도 범위와 매핑되는 1차원적인 위치를 찾고, 선택된 제2 각도 범위와 매핑되는 1차원적인 위치를 찾는다(제292 단계). 본 발명의 이해를 돕기 위해, 제1 각도 범위와 매핑되는 1차원적인 위치는 정보 화면에서 수평 방향의 위치이고, 제2 각도 범위와 매핑되는 1차원적인 위치는 정보 화면에서 수직 방향의 위치라고 가정한다. 이 때, 제290 단계를 수행하기 위해, 제1 위치 매핑부(272)는 제252 단계에서와 동일하게 제1 각도 범위와 매핑되는 1차원적인 위치인 수평 방향의 위치를 찾고, 제2 위치 매핑부(312)는 제2 각도 범위 결정부(310)로부터 입력한 제2 각도 범위와 매핑되는 1차원적인 위치인 수직 방향의 위치를 검색하고, 검색된 수직 방향의 위치를 정보 인식부(314)로 출력한다. 예를 들면, 제1 또는 제2 위치 매핑부(272 또는 312)는 제1 또는 제2 소정수의 제1 또는 제2 각도 범위들 각각에 대한 수평 또는 수직 방향의 위치를 미리 저장하는 저장부(미도시)와 제1 또는 제2 각도 범위 결정부(270 또는 310)로부터 입력한 제1 또는 제2 각도 범위를 어드레스로하여 저장부에 저장된 수평 또는 수직 방향의 1차원적인 위치를 독출하는 독출부(미도시)로 구현될 수 있다.After
제292 단계후에, 두 개의 1차원적인 위치들 예를 들면 수평 및 수직 방향들 로부터 2차원적인 위치 즉, 수평 및 수직 좌표값을 구하고, 2차원적인 위치와 매칭되는 정보를 찾으며, 찾아진 정보를 사용자가 선택한 정보로서 인식한다(제294 단계). 이를 위해, 정보 인식부(314)는 제1 위치 매칭부(272)로부터 입력한 1차원적인 위치인 수평 방향의 위치 및 제2 위치 매핑부(312)로부터 입력한 1차원적인 위치인 수직 방향의 위치로부터 결정한 2차원적인 위치인 수평 및 수직 좌표값과 매칭되는 정보를 검색하고, 검색된 정보를 사용자가 선택한 정보로서 인식하고, 인식된 정보를 출력단자 OUT5를 통해 출력한다. 예를 들면, 정보 인식부(314)는 2차원적인 위치들 각각에 정보를 미리 저장하는 저장부(미도시)와 제1 위치 매핑부(272) 및 제2 위치 매핑부(312)로부터 입력한 1차원적인 위치들로부터 구한 2차원적인 위치를 어드레스를 하여 저장부에 저장된 정보를 독출시키는 독출부(미도시)로 구현될 수 있다.After
여기서, 센싱부(20A)가 제1 센싱기(80) 뿐만 아니라 제2 ∼ 제6 센싱기들(80 ∼ 90)을 오른손 및 왼속에 각각 마련할 경우, 정보 선택부(68)는 복수개의 정보들을 동시에 선택할 수도 있다.Here, when the
지금까지 정보 화면에 표시된 정보들중 사용자가 선택한 정보를 결정하는 본 발명에 의한 정보 입력 장치 및 방법에 대해 살펴보았다. 이 때, 본 발명에 의한 정보 입력 장치 및 방법은 전술한 바와 같이 선택된 정보를 입력할 정보로서 다음과 같이 결정할 수 있다.The information input apparatus and method according to the present invention for determining the information selected by the user among the information displayed on the information screen have been described. At this time, the information input apparatus and method according to the present invention can determine information to be input as selected information as follows.
일반적으로 키보드 또는 마우스 등에 익숙한 사용자는 이미 선택된 정보를 입력할 정보로서 결정하기 위해 클릭 동작을 수행하며, 사용자가 클릭 동작을 수행 할 때, 도 2에 도시된 손의 세번째 관절(24)이 움직여진다. 따라서, 본 발명에 의한 정보 입력 장치 및 방법은 선택된 정보가 사용자가 입력할 정보인가를 판단하기 위해, 제6 센싱기(90)를 통해 세번째 관절(24)의 움직임을 센싱한다. 결국, 도 4에 도시된 본 발명에 의한 정보 입력 장치는, 선택된 정보가 사용자가 입력하기를 원하는 정보인가를 결정하기 위해 센싱부(20A)에 제6 센싱기(90)를 마련할 수 있다.In general, a user who is familiar with a keyboard, a mouse or the like performs a click operation to determine already-selected information as information to be input, and when the user performs a click operation, the third joint 24 of the hand shown in Fig. 2 is moved . Accordingly, the information input apparatus and method according to the present invention sense the motion of the third joint 24 through the
이 때, 정보 선택부(68)는 선택한 정보를 입력할 정보로서 결정할 의도가 사용자에게 있는가를 검사하기 위해, 즉, 세번째 관절(24)의 움직임이 클릭 동작에 해당하는 움직임인가를 검사하기 위해, 신호 처리부(64)에서 산출된 제5 변위를 분석하고, 분석된 결과에 응답하여 선택된 정보를 입력할 정보로서 결정한다.At this time, in order to check whether the user has an intention to decide the information to be input as the information to be input, that is, to check whether the motion of the third joint 24 corresponds to the click operation, Analyzes the fifth displacement calculated by the
한편, 전술한 제2, 제3, 제4, 제5 및 제6 센싱기들(82, 84, 86, 88 및 90) 각각은 본 발명에 의한 정보 입력 장치 및 방법의 응용례에 따라 선택적으로 마련될 수 있다. 예컨데, 본 발명에 의한 정보 입력 장치 및 방법이 가상 키보드 형태의 정보 화면을 이용하여 키 데이타라는 정보를 입력하기 위해 사용될 경우, 센싱부(20A)는 제1, 제4 및 제6 센싱기들(80, 86 및 90)을 마련하거나, 제1, 제3, 제4 및 제6 센싱기들(80, 84, 86 및 90)을 마련할 수 있다.Each of the second, third, fourth, fifth and
예를 들어, 사용자가 가상 키보드(12) 형태의 정보 화면상에서 원하는 키를 선택하기 위해, 손을 오른쪽이나 왼쪽으로 움직여서 열을 선택하고, 손가락(22)을 아래나 위로 구부려서 선택된 열에서 원하는 키를 선택하며, 선택된 키를 클릭하여 선택된 키에 해당하는 키 데이타를 입력 정보로서 결정할려고 한다. 이를 위해, 센싱부(20A)는 손의 오른쪽이나 왼쪽의 움직임을 센싱하는 제4 센싱기(86)를 손등이 나 손바닥에 마련하고, 손가락(22)을 구부리는 각도를 센싱하는 제1 센싱기(80)를 왼손 또는/및 오른손 각각의 인지, 중지, 약지, 소지의 네 손가락들 각각의 끝에서 세번째 마디와 두번째 마디 사이에 마련하며 및 클릭 동작을 센싱할 수 있는 제6 센싱기(90)를 각 손가락에 마련한다. 그러므로, 종래의 QWERTY 키보드에 익숙해져 있는 사용자는 본 발명에 의한 정보 입력 장치 및 방법을 사용하므로써, 가상 키보드(12)상에 디스플레이되는 정보 화면을 보면서 원하는 정보를 마치 QWERY 키보드를 사용하는 것처럼 공간적으로 또는 평면적으로 개인용 컴퓨터 따위에 입력시킬 수 있다.For example, to select a desired key on the information screen in the form of a
그 밖에, 본 발명에 의한 정보 입력 장치 및 방법은 개인용 컴퓨터, PDA 또는 셀룰러 폰등을 포함하는 손에 쥘만한 크기의 장치나, 무선 휴대용 장치, 가상 음악 연주 장치, 컴퓨터 게임기, 의료 진단 장치 또는 가상 현실 장치 등에서 정보를 입력하기 위해 사용되는 마우스, 오락용 조이스틱 또는 리모콘등을 대체하여 폭 넓게 적용될 수 있다.In addition, the information input apparatus and method according to the present invention may be applied to a hand held size apparatus including a personal computer, a PDA or a cellular phone, a wireless portable apparatus, a virtual music playing apparatus, a computer game machine, A joystick for entertainment, a remote controller or the like, which is used for inputting information in a device or the like.
이상에서 설명한 바와 같이, 본 발명에 의한 신체의 관절 각도를 이용한 정보 입력 장치 및 방법은 평면적으로 또는 공간적으로 선택된 정보를 손가락의 관절 각도를 이용하여 신속하고 편리하게 입력할 수 있으므로, 예를 들면, 종래의 QWERTY 키보드에 익숙해져 있는 사용자로 하여금 가상 키보드(12)상에 디스플레이되는 정보 화면을 보면서 원하는 정보를 마치 QWERY 키보드를 사용하는 것처럼 개인용 컴퓨터 따위에 신속하고 편리하게 입력시킬 수 있도록 하는 효과를 갖는다.As described above, the information input apparatus and method using the joint angles of the body according to the present invention can quickly and conveniently input information selected in a planar or spatially using the joint angles of the fingers. For example, The user who is accustomed to the conventional QWERTY keyboard has the effect of promptly and conveniently inputting the desired information to the personal computer as if using the QWERTY keyboard while viewing the information screen displayed on the
Claims (41)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020010041560A KR100803200B1 (en) | 2001-07-11 | 2001-07-11 | Information input apparatus and method using joint angle of body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020010041560A KR100803200B1 (en) | 2001-07-11 | 2001-07-11 | Information input apparatus and method using joint angle of body |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20030006020A KR20030006020A (en) | 2003-01-23 |
KR100803200B1 true KR100803200B1 (en) | 2008-02-14 |
Family
ID=27714465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020010041560A KR100803200B1 (en) | 2001-07-11 | 2001-07-11 | Information input apparatus and method using joint angle of body |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100803200B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101853706B1 (en) * | 2016-11-30 | 2018-05-02 | (주)슈팅스 | finger ring type sensing device having the middle between finger nodes |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100480770B1 (en) * | 2001-07-12 | 2005-04-06 | 삼성전자주식회사 | Method for pointing information in three-dimensional space |
KR101413539B1 (en) * | 2010-11-22 | 2014-07-02 | 한국전자통신연구원 | Apparatus and Method of Inputting Control Signal by using Posture Recognition |
KR101896590B1 (en) * | 2017-05-08 | 2018-09-10 | 주식회사 엠셀 | Apparatus for measuring angle of multi-joint and method for measuring the same |
KR101971882B1 (en) * | 2017-08-18 | 2019-04-24 | 재단법인 실감교류인체감응솔루션연구단 | Finger motion capture interface apparatus based on three-dimensional magnetic sensors |
CN114327042B (en) * | 2021-11-29 | 2023-12-22 | 京东方科技集团股份有限公司 | Detection glove, gesture tracking method, AR equipment and key pressing method |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR950020083A (en) * | 1993-12-28 | 1995-07-24 | 배순훈 | Variable speed cursor position control device |
KR970012096A (en) * | 1995-08-04 | 1997-03-29 | 이상열 | Input device and input method of computer using touch screen |
KR19980036078A (en) * | 1996-11-15 | 1998-08-05 | 배순훈 | Hand joint sensor and glove input device using the same |
KR19980053038A (en) * | 1996-12-26 | 1998-09-25 | 배순훈 | Glove sensor value transmission system and its method in virtual reality system |
KR19990000239U (en) * | 1997-06-05 | 1999-01-15 | 배순훈 | Pointing devices for computers for the disabled |
KR100244523B1 (en) * | 1997-05-02 | 2000-02-01 | 정선종 | Real-time interfacing for virtual environment |
KR20000074930A (en) * | 1999-05-27 | 2000-12-15 | 윤종용 | apparatus for reforming object state in computing apparatus for touch pannel and method therefor |
KR20010023426A (en) * | 1998-06-30 | 2001-03-26 | 요트.게.아. 롤페즈 | Fingerless glove for interacting with data processing system |
KR20010106839A (en) * | 2000-05-23 | 2001-12-07 | 허운 | Motion Teaching System On Internet For Muman Booly Motion Limit Reoognization By Two Arises-Two Sensors Method |
KR20020072081A (en) * | 2001-03-08 | 2002-09-14 | 은탁 | Virtual input device sensed finger motion and method thereof |
-
2001
- 2001-07-11 KR KR1020010041560A patent/KR100803200B1/en active IP Right Grant
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR950020083A (en) * | 1993-12-28 | 1995-07-24 | 배순훈 | Variable speed cursor position control device |
KR970012096A (en) * | 1995-08-04 | 1997-03-29 | 이상열 | Input device and input method of computer using touch screen |
KR19980036078A (en) * | 1996-11-15 | 1998-08-05 | 배순훈 | Hand joint sensor and glove input device using the same |
KR19980053038A (en) * | 1996-12-26 | 1998-09-25 | 배순훈 | Glove sensor value transmission system and its method in virtual reality system |
KR100244523B1 (en) * | 1997-05-02 | 2000-02-01 | 정선종 | Real-time interfacing for virtual environment |
KR19990000239U (en) * | 1997-06-05 | 1999-01-15 | 배순훈 | Pointing devices for computers for the disabled |
KR20010023426A (en) * | 1998-06-30 | 2001-03-26 | 요트.게.아. 롤페즈 | Fingerless glove for interacting with data processing system |
US6304840B1 (en) * | 1998-06-30 | 2001-10-16 | U.S. Philips Corporation | Fingerless glove for interacting with data processing system |
KR20000074930A (en) * | 1999-05-27 | 2000-12-15 | 윤종용 | apparatus for reforming object state in computing apparatus for touch pannel and method therefor |
KR20010106839A (en) * | 2000-05-23 | 2001-12-07 | 허운 | Motion Teaching System On Internet For Muman Booly Motion Limit Reoognization By Two Arises-Two Sensors Method |
KR20020072081A (en) * | 2001-03-08 | 2002-09-14 | 은탁 | Virtual input device sensed finger motion and method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101853706B1 (en) * | 2016-11-30 | 2018-05-02 | (주)슈팅스 | finger ring type sensing device having the middle between finger nodes |
WO2018101667A3 (en) * | 2016-11-30 | 2018-07-19 | (주)슈팅스 | Inter-finger joint worn ring-type device for sensing user manipulation |
Also Published As
Publication number | Publication date |
---|---|
KR20030006020A (en) | 2003-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100446613B1 (en) | Information input method using wearable information input device | |
US11121719B2 (en) | Method of detecting user input in a 3D space and a 3D input system employing same | |
US7259756B2 (en) | Method and apparatus for selecting information in multi-dimensional space | |
US9367651B2 (en) | 3D wearable glove scanner | |
US5175534A (en) | Computer input device using the movements of a user's fingers | |
US6861945B2 (en) | Information input device, information processing device and information input method | |
US20110279397A1 (en) | Device and method for monitoring the object's behavior | |
US10901506B2 (en) | Finger-gesture detection device for control handle use in virtual reality, control assembly having the same and correction method for virtual reality system | |
WO2006047018A2 (en) | Input device for controlling movement in a three dimensional virtual environment | |
KR100803200B1 (en) | Information input apparatus and method using joint angle of body | |
CN103294226A (en) | Virtual input device and virtual input method | |
KR20100074461A (en) | 3d mouse apparatus and method that control using action sense | |
KR100480770B1 (en) | Method for pointing information in three-dimensional space | |
US6707445B1 (en) | Input device | |
KR102322968B1 (en) | a short key instruction device using finger gestures and the short key instruction method using thereof | |
KR101686585B1 (en) | A hand motion tracking system for a operating of rotary knob in virtual reality flighting simulator | |
US10884497B2 (en) | Method and apparatus for motion capture interface using multiple fingers | |
JPH04257014A (en) | Input device | |
Campos et al. | Touchscreen device layout based on thumb comfort and precision | |
JP2023180928A (en) | input device | |
JPH0594258A (en) | Coordinate input device | |
Kim | Sensors and Input Processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130130 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140128 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150129 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160128 Year of fee payment: 9 |