KR100480770B1 - 3차원 공간상의 정보 포인팅 방법 - Google Patents

3차원 공간상의 정보 포인팅 방법 Download PDF

Info

Publication number
KR100480770B1
KR100480770B1 KR10-2001-0042037A KR20010042037A KR100480770B1 KR 100480770 B1 KR100480770 B1 KR 100480770B1 KR 20010042037 A KR20010042037 A KR 20010042037A KR 100480770 B1 KR100480770 B1 KR 100480770B1
Authority
KR
South Korea
Prior art keywords
pointing
screen
information
desired information
pointing screen
Prior art date
Application number
KR10-2001-0042037A
Other languages
English (en)
Other versions
KR20030006325A (ko
Inventor
장이브 빌레
이상국
박경호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR10-2001-0042037A priority Critical patent/KR100480770B1/ko
Priority to US10/090,643 priority patent/US20030011567A1/en
Publication of KR20030006325A publication Critical patent/KR20030006325A/ko
Application granted granted Critical
Publication of KR100480770B1 publication Critical patent/KR100480770B1/ko

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

3차원 공간상의 정보 포인팅 방법이 개시된다. 이 방법은 복수개의 정보들을 갖는 전체 화면의 일부를 포인팅 화면으로서 설정하는 (a) 단계와, 설정된 포인팅 화면에 포인팅하기를 원하는 정보가 포함되어 있는가를 판단하는 (b) 단계와, 포인팅 화면에 원하는 정보가 포함되지 않은 것으로 판단되면, 포인팅 화면을 이동시켜 원하는 정보를 포인팅 화면에 포함시키는 (c) 단계 및 포인팅 화면에 원하는 정보가 포함되어 있는 것으로 판단되거나 (c) 단계후에, 포인팅 화면에 포함된 원하는 정보를 포인팅하는 (d) 단계를 구비하고, 상, 하, 전, 후, 좌 및 우 방향들중 적어도 하나의 방향으로 사용자에 의한 움직임을 통해 (a), (c) 및 (d) 단계들중 적어도 하나가 수행되는 것을 특징으로 한다. 그러므로, 2차원 공간에서 마우스를 사용하는 것과 마찬가지로, 사용자의 손놀림대로 세밀하게 3차원상의 공간에서 포인팅을 수행할 수 있고, 포인터를 매우 쉽고 용이하게 이동시킬 수 있고, 센싱 감도가 떨어지는 저렴한 센싱기를 사용하고도 정밀하고 세밀한 3차원 공간상에서의 움직임을 전달할 수 있는 효과를 갖는다.

Description

3차원 공간상의 정보 포인팅 방법{Method for pointing information in three-dimensional space}
본 발명은 마우스(mouse)등과 같은 포인팅 디바이스(pointing device)에 관한 것으로서, 특히, 착용할 수 있는 정보 입력 장치를 사용하여 3차원 공간상에서 원하는 정보를 포인팅할 수 있는 3차원 공간상의 정보 포인팅 방법에 관한 것이다.
착용할 수 있는 컴퓨터등과 같은 시스템을 위하여 마우스의 기능을 동일하게 수행하는 착용할 수 있는 정보 입력 장치를 3차원 공간상에서 사용할 필요가 대두된다. 이 때, 2차원 공간에서 마우스를 사용하는 것과 마찬가지로 사용자의 손놀림대로 세밀하게 3차원상의 공간에서 착용할 수 있는 정보 입력 장치를 움직일 수 있어야 한다. 그러나, 3차원 공간에서 정보 입력 장치를 움직여서 원하는 정보를 포인팅할 때 손떨림과 같은 원인에 의해 잡음이 발생하게 된다. 그러므로, 2차원 공간에서 마우스를 움직이는 것에 비해 3차원 공간상에서는 정보 입력 장치를 세밀하게 움직일 수 없는 문제점이 있다.
게다가, 3차원 공간상에서 정보 입력 장치를 이용하여 원하는 정보를 포인팅하고자 할 때, 복수개의 포인팅될 수 있는 정보들을 갖는 화면이 클 경우 정보 입력 장치에 속하는 센싱기를 착용한 손을 움직여서 포인터를 원하는 정보가 존재하는 위치로 움직이는 것은 매우 어렵고 번거롭다.
본 발명이 이루고자 하는 기술적 과제는, 착용될 수 있는 센싱기를 이용하여 사용자의 의도대로 3차원 공간상에서 세밀하고 수월하게 정보를 포인팅할 수 있는 3차원 공간상의 정보 포인팅 방법을 제공하는 데 있다.
상기 과제를 이루기 위한 본 발명에 의한 3차원 공간상의 정보 포인팅 방법은, 복수개의 정보들을 갖는 전체 화면의 일부를 포인팅 화면으로서 설정하는 (a) 단계와, 설정된 상기 포인팅 화면에 포인팅하기를 원하는 정보가 포함되어 있는가를 판단하는 (b) 단계와, 상기 포인팅 화면에 상기 원하는 정보가 포함되지 않은 것으로 판단되면, 상기 포인팅 화면을 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키는 (c) 단계 및 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있는 것으로 판단되거나 상기 (c) 단계후에, 상기 포인팅 화면에 포함된 상기 원하는 정보를 포인팅하는 (d) 단계로 이루어지고, 상, 하, 전, 후, 좌 및 우 방향들중 적어도 하나의 방향으로 사용자에 의한 움직임을 통해 상기 (a), 상기 (c) 및 상기 (d) 단계들중 적어도 하나가 수행되는 것이 바람직하다.
이하, 본 발명에 의한 3차원 공간상의 정보 포인팅 방법을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 1은 본 발명에 의한 3차원 공간상의 정보 포인팅 방법을 설명하기 위한 플로우차트로서, 포인팅 화면을 설정하는 단계(제10 단계), 포인팅하기를 원하는 정보가 설정된 포인팅 화면에 포함되어 있는가에 따라 포인팅 화면을 이동시키는 단계(제12 및 제14 단계들) 및 원하는 정보를 포인팅하는 단계(제16 단계)로 이루어진다.
도 1에 도시된 본 발명에 의한 정보 포인팅 방법은, 상, 하, 전, 후, 좌 및 우 방향들중 적어도 하나의 방향을 감지할 수 있으며 사용자의 신체의 소정 부위 예를 들면 손 따위에 착용될 수 있는 적어도 하나의 센싱기(미도시)를 갖는 정보 입력 장치를 이용하여 수행될 수 있다. 이러한 정보 입력 장치의 구성 및 동작에 대해서는 후술된다.
도 2는 본 발명에 의한 정보 포인팅 방법을 설명하기 위한 전체 화면의 일 예를 나타내는 도면으로서, 메뉴 화면(40) 및 포인팅 화면(42)으로 구성된다.
본 발명에 의한 정보 포인팅 방법은 먼저, 복수개의 정보들을 갖는 도 2에 도시된 전체 화면(46)의 일부를 포인팅 화면(42)으로서 설정한다(제10 단계). 이 때, 포인팅 화면(42)의 수평 및 수직 크기들중 적어도 하나는 사용자의 의도에 따라 결정될 수 있으며 복수개로 디스플레이될 수도 있다. 예를 들면, 포인팅 화면(42)의 크기를 사용자의 의도대로 결정하기 위해, 전체 화면(46)은 메뉴 화면(40)을 가질 수 있으며, 메뉴 화면(40)을 이용하여 포인팅 화면(42)의 수평 및 수직 크기들중 적어도 하나를 결정하는 과정에 대해 살펴보면 다음과 같다.
도 3은 도 2에 도시된 메뉴 화면(40)의 본 발명에 의한 바람직한 일 실시예(40A)를 나타내는 도면으로서, 크기 메뉴(60), 속도 메뉴(62), 반응 메뉴(64), 조작키들(90, 92 및 94)로 구성된다.
도 3에 도시된 크기 메뉴(60)는 포인팅 화면(42)의 수평 및 수직 크기들(102 및 106)중 적어도 하나를 결정할 때 사용된다. 예를 들면, 포인팅 화면(42)의 수평 크기(102)를 증가시키거나 감소시키고자 할 경우, 사용자는 포인터(44)를 크기 메뉴(60)의 수평 범위 표시창(110)에 위치시킨다. 이 때, 수평 범위 표시창(110)의 왼쪽에 마련된 화살표들중 위쪽 화살표를 센싱기를 움직여서 원하는 횟수만큼 클릭하여 수평 크기(102)를 증가시키고 수평 범위 표시창(110)의 아래쪽 화살표를 센싱기를 움직여서 원하는 횟수만큼 클릭하여 수평 크기(102)를 감소시킬 수 있다. 이와 비슷하게, 포인팅 화면(42)의 수직 크기(106)를 증가시키거나 감소시키고자 할 경우, 사용자는 포인터(44)를 크기 메뉴(60)의 수직 범위 표시창(112)에 위치시킨다. 이 때, 수직 범위 표시창(112)의 왼쪽에 마련된 화살표들중 위쪽 화살표를 센싱기를 움직여서 원하는 횟수만큼 클릭하여 수직 크기(106)를 증가시키고 수직 범위 표시창(112)의 아래쪽 화살표를 센싱기를 움직여서 원하는 횟수만큼 클릭하여 수직 크기(106)를 감소시킬 수 있다.
만일, 사용자가 센싱기를 손에 착용하고, 손을 움직여서 마우스의 역할을 수행한다면, 도 2에 도시된 바와 같이 포인팅 화면(42)에 포인터(44)가 디스플레이되며, 이 경우, 포인터(44)는 포인팅 화면(42)의 내부에서만 움직인다. 여기서, 전체 화면(46)은 그래픽-사용자 인터페이스(graphic-user interface) 화면이 될 수 있다.
한편, 제10 단계후에, 설정된 포인팅 화면(42)에 포인팅하기를 원하는 정보가 포함되어 있는가를 판단한다(제12 단계). 만일, 포인팅 화면(42)에 원하는 정보가 포함되지 않은 것으로 판단되면, 포인팅 화면(42)을 이동시켜 원하는 정보를 포인팅 화면(42)에 포함시킨다(제14 단계).
이하, 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예들 각각을 첨부된 도면들을 참조하여 다음과 같이 설명한다.
도 4는 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예(14A)를 설명하기 위한 플로우차트로서, 포인팅하기를 원하는 정보의 위치에 따라 포인팅 화면(42)을 왼쪽이나 오른쪽으로 이동시키는 단계(제140 ∼ 제144 단계들)로 이루어진다.
도 4를 참조하면, 제12 단계에서 현재 디스플레이된 포인팅 화면(42)에 원하는 정보가 포함되지 않은 것으로 판단되면, 원하는 정보가 이동하기 전의 포인팅 화면을 기준으로 왼쪽에 위치하는가 오른쪽에 위치하는가를 판단한다(제140 단계). 만일, 이동하기 전의 포인팅 화면(42)을 기준으로 원하는 정보가 왼쪽에 위치하는 것으로 판단되면, 포인팅 화면(42)을 좌 방향으로 이동시켜 원하는 정보를 포인팅 화면(42)에 포함시키고, 제16 단계로 진행한다(제142 단계). 그러나, 이동하기 전의 포인팅 화면(42)을 기준으로 원하는 정보가 오른쪽에 위치하는 것으로 판단되면, 포인팅 화면(42)을 우 방향으로 이동시켜 원하는 정보를 포인팅 화면(42)에 포함시키고, 제16 단계로 진행한다(제144 단계).
도 5는 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예(14B)를 설명하기 위한 플로우차트로서, 포인팅하기를 원하는 정보의 위치에 따라 포인팅 화면(42)을 앞쪽이나 뒤쪽으로 이동시키는 단계(제150 ∼ 제154 단계들)로 이루어진다.
도 5를 참조하면, 제12 단계에서 포인팅 화면(42)에 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 포인팅 화면을 기준으로 원하는 정보가 앞쪽에 위치하는가 뒤쪽에 위치하는가를 판단한다(제150 단계). 만일, 이동하기 전의 포인팅 화면(42)을 기준으로 원하는 정보가 앞쪽에 위치하는 것으로 판단되면, 포인팅 화면(42)을 전 방향으로 이동시켜 원하는 정보를 포인팅 화면에 포함시키고, 제16 단계로 진행한다(제152 단계). 그러나, 이동하기 전의 포인팅 화면(42)을 기준으로 원하는 정보가 뒤쪽에 위치하는 것으로 판단되면, 포인팅 화면(42)을 후 방향으로 이동시켜 원하는 정보를 포인팅 화면(42)에 포함시키고, 제16 단계로 진행한다(제154 단계).
도 6은 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예(14C)를 설명하기 위한 플로우차트로서, 포인팅하기를 원하는 정보의 위치에 따라 포인팅 화면(42)을 전, 후, 좌 및 우 방향들중 적어도 한 방향으로 이동시키는 단계(제160 ∼ 제172 단계들)로 이루어진다.
도 6을 참조하면, 제12 단계에서 포인팅 화면(42)에 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 포인팅 화면(42)을 기준으로 원하는 정보가 왼쪽에 위치하는가 오른쪽에 위치하는가를 판단한다(제160 단계). 만일, 이동하기 전의 포인팅 화면(42)을 기준으로 원하는 정보가 왼쪽에 위치하는 것으로 판단되면, 원하는 정보의 수직 위치에 포인팅 화면이 위치될 때까지 포인팅 화면을 좌 방향으로 이동시킨다(제162 단계). 그러나, 이동하기 전의 포인팅 화면을 기준으로 원하는 정보가 오른쪽에 위치하는 것으로 판단되면, 원하는 정보의 수직 위치에 포인팅 화면이 위치될 때까지 포인팅 화면을 우 방향으로 이동시킨다(제164 단계).
이 때, 제162 단계 또는 제164 단계에서 이동된 포인팅 화면에 원하는 정보가 포함되어 있는가를 판단한다(제166 단계). 만일, 이동된 포인팅 화면에 원하는 정보가 포함되어 있는 것으로 판단되면 제16 단계로 진행한다. 그러나, 이동된 포인팅 화면에 원하는 정보가 포함되어 있지 않은 것으로 판단되면, 이동된 포인팅 화면을 기준으로 원하는 정보가 앞쪽에 위치하는가 뒤쪽에 위치하는가를 판단한다(제168 단계). 만일, 이동된 포인팅 화면을 기준으로 원하는 정보가 앞쪽에 위치하는 것으로 판단되면, 포인팅 화면을 전 방향으로 이동시켜 원하는 정보를 포인팅 화면에 포함시키고, 제16 단계로 진행한다(제170 단계). 그러나, 이동된 포인팅 화면을 기준으로 원하는 정보가 뒤쪽에 위치하는 것으로 판단되면, 포인팅 화면을 후 방향으로 이동시켜 원하는 정보를 포인팅 화면에 포함시키고, 제16 단계로 진행한다(제172 단계).
도 7은 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예(14D)를 설명하기 위한 플로우차트로서, 포인팅하기를 원하는 정보의 위치에 따라 포인팅 화면(42)을 전, 후, 좌 및 우 방향들중 적어도 한 방향으로 이동시키는 단계(제180 ∼ 제192 단계들)로 이루어진다.
도 7을 참조하면, 제12 단계에서 포인팅 화면에 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 포인팅 화면을 기준으로 원하는 정보가 앞쪽에 위치하는가 뒤쪽에 위치하는가를 판단한다(제180 단계). 만일, 이동하기 전의 포인팅 화면을 기준으로 원하는 정보가 앞쪽에 위치하는 것으로 판단되면, 원하는 정보의 수평 위치에 포인팅 화면이 위치될 때까지 포인팅 화면을 전 방향으로 이동시킨다(제182 단계). 그러나, 이동하기 전의 포인팅 화면을 기준으로 원하는 정보가 뒤쪽에 위치하는 것으로 판단되면, 원하는 정보의 수평 위치에 포인팅 화면이 위치될 때까지 포인팅 화면을 후 방향으로 이동시킨다(제184 단계).
이 때, 제182 단계 또는 제184 단계에서 이동된 포인팅 화면에 원하는 정보가 포함되어 있는가를 판단한다(제186 단계). 만일, 이동된 포인팅 화면에 원하는 정보가 포함되어 있는 것으로 판단되면 제16 단계로 진행한다. 그러나, 이동된 포인팅 화면에 원하는 정보가 포함되어 있지 않은 것으로 판단되면, 이동된 포인팅 화면을 기준으로 원하는 정보가 왼쪽에 위치하는가 오른쪽에 위치하는가를 판단한다(제188 단계). 만일, 이동된 포인팅 화면을 기준으로 원하는 정보가 왼쪽에 위치하는 것으로 판단되면, 포인팅 화면을 좌 방향으로 이동시켜 원하는 정보를 포인팅 화면에 포함시키고, 제16 단계로 진행한다(제190 단계). 그러나, 이동된 포인팅 화면을 기준으로 원하는 정보가 오른쪽에 위치하는 것으로 판단되면, 포인팅 화면을 우 방향으로 이동시켜 원하는 정보를 포인팅 화면에 포함시키고, 제16 단계로 진행한다(제192 단계).
전술한 도 6에 도시된 실시예에서 포인팅 화면은 좌 또는 우 방향으로 이동한 다음에 전 또는 후 방향으로 이동할 수 있고, 도 7에 도시된 실시예에서 포인팅 화면은 전 또는 후 방향으로 이동한 다음에 좌 또는 우 방향으로 이동할 수 있다. 그러나, 본 발명은 이에 국한되지 않고 포인팅 화면을 2차원적으로도 이동시킬 수도 있다. 예컨데, 포인팅 화면을 전 및 좌 방향들로 이동시킬 수도 있고, 전 및 우 방향들로 이동시킬 수도 있고, 후 및 우 방향들로 이동시킬 수 있고, 후 및 좌 방향들로 이동시킬 수도 있다.
본 발명에 의하면, 도 1에 도시된 제14 단계 및 도 4 ∼ 도 7에 도시된 실시예들 각각에서, 포인팅 화면에 원하는 정보가 포함되어 있지 않은 것으로 판단되면, 센싱기를 수평 및 수직 움직임 범위들중 적어도 하나를 초과하여 움직임으로써 포인팅 화면을 이동시킬 수 있다. 여기서, 수평 움직임 범위란, 포인팅 화면내에서 센싱기를 좌 또는 우로 움직일 수 있는 범위를 의미하고, 수직 움직임 범위란, 포인팅 화면내에서 센싱기를 전 또는 후로 움직일 수 있는 범위를 의미한다.
도 8은 도 1에 도시된 제14 단계를 예시적으로 설명하기 위한 전체 화면을 나타내는 도면으로서, 이동되기 전의 포인팅 화면(200) 및 이동된 후의 포인팅 화면(202)을 각각 나타낸다.
도 8을 참조하면, 초기 위치(302)를 기준으로 현재 디스플레이되는 포인팅 화면(200)내에서 센싱기를 좌 방향(또는, 반 시계 방향) 및 우 방향(또는, 시계 방향)으로 각각 움직일 수 있는 최대 각도를 αmin 및 αmax 라 하고, 포인팅 화면(200)내에서 센싱기를 전 방향 및 후 방향으로 각각 움직일 수 있는 최대 각도를 βmin 및 βmax 라 하자. 이 때, 초기 위치(302)에서 센싱기가 좌 또는 우 방향으로 움직인 각도(α)와 전 또는 후 방향으로 움직인 각도(β)는 각각 0˚가 되며, 수평 움직임 범위는 다음 수학식 1과 같이 표현되고, 수직 움직임 범위는 다음 수학식 2와 같이 표현된다.
여기서, 센싱기를 좌 방향으로 움직일 때 α가 (-)값을 갖고 우 방향으로 움직일 때 α가 (+)값을 가지며, 전 방향으로 움직일 때 β가 (-)값을 갖고 후 방향으로 움직일 때 β가 (+)값을 갖는다고 가정한다. 이 때, 본 발명에 의하면 αmin 및 αmax 는 각각 -25˚및 50˚가 될 수 있고, βmin 및 βmax는 각각 -20˚및 45˚가 될 수 있다.
따라서, 사용자가 αmin를 초과하여 센싱기를 움직이면 포인팅 화면(200)은 좌 방향으로 이동하고, αmax를 초과하여 센싱기를 움직이면 포인팅 화면(200)은 우 방향으로 이동하며, βmin를 초과하여 센싱기를 움직이면 포인팅 화면(200)은 전 방향으로 이동하고, βmax를 초과하여 센싱기를 움직이면 포인팅 화면(200)은 후 방향으로 이동한다. 예를 들면, 도 8에 도시된 바와 같이 제12 단계에서 현재 디스플레이되는 포인팅 화면(200)이 포인팅하기를 원하는 정보(300)를 포함하지 않은 것으로 판단되면, αmin를 초과하여 센싱기를 움직여서 포인팅 화면(200)을 화살표(204) 방향 즉, 좌 방향으로 이동시켜 포인팅 화면(202)에 원하는 정보(300)가 포함될 수 있도록 한다.
한편, 제12 단계에서 현재 디스플레이되는 포인팅 화면에 원하는 정보가 포함되어 있는 것으로 판단되거나 제14 단계후에, 포인팅 화면에 포함된 원하는 정보를 포인팅한다(제16 단계).
전술한 도 1에 도시된 제10, 제14 및 제16 단계들중 적어도 하나는 사용자의 신체의 소정 부위에 착용되는 센싱기(미도시)를 움직여서 수행될 수 있다. 즉, 제10, 제14 및 제16 단계들 각각은 센싱기를 움직여서 수행될 수도 있고, 제10 단계는 착용될 수 있는 센싱기를 갖는 정보 입력 장치 이외의 정보 입력 장치 예를 들면, 키 버튼 따위의 조작에 의해 수행될 수도 있다.
한편, 제10 단계에서 포인팅 화면(42)의 크기가 작게 설정될 경우 포인터(44)가 움직일 수 있는 범위가 좁아지므로, 센싱기를 전, 후, 좌 또는 우 방향으로 조금만 움직여도 되지만, 포인팅 화면(42)을 빈번하게 이동시킬 가능성이 많아진다. 왜냐하면, 도 1에 도시된 전체 화면(46)과 대비하여 포인팅 화면(42)이 정보들을 적게 갖기 때문이다. 그러나, 제10 단계에서 포인팅 화면(42)의 크기가 크게 설정될 경우, 포인팅 화면(42)의 크기가 작게 설정될 때 보다 포인팅 화면(42)에 비교적 많은 정보가 포함된다. 그러므로, 포인팅 화면(42)을 이동시킬 가능성을 줄어들게 되지만, 사용자는 센싱기를 부착한 신체의 부위를 더 많이 움직여야 한다. 따라서, 사용자는 포인팅 화면(42)의 용도 및 센싱기를 착용하는 신체의 동작 편리성에 따라 도 2에 도시된 포인팅 화면의 크기를 적절하게 선택할 수 있다. 예를 들어, 빈번하게 포인팅될 필요성이 있는 정보들이 서로 인접하여 위치할 경우, 포인팅 화면(42)의 크기를 작게 선택하고, 그렇지 않은 경우 포인팅 화면(42)의 크기를 크게 선택할 수 있다.
또한, 본 발명에 의하면, 제10 단계에서, 사용자는 포인팅 화면(42)의 내부에서 최초에 포인팅될 초기 위치를 자유롭게 결정할 수 있다. 이를 위해, 사용자는 도 3에 도시된 크기 메뉴(60)를 이용할 수 있다. 예컨데, 도 3을 참조하면, 초기 위치(100)를 결정하고자 할 경우, 사용자는 크기 메뉴(60)에서 음영으로 처리된 부분(104)에서 원하는 좌표(Xo, Yo)(100)에 포인터(44)를 위치시킨다. 이 때, 센싱기를 움직여서 클릭하여 원하는 좌표(Xo, Yo)(100)를 초기 위치로서 결정한다. 편의상, 도 3에서 좌표축들 Xo 및 Yo 각각은 백분율로 표시되었다.
이 때, 도 8에 도시된 초기 위치(100)를 포인팅 화면(42)에서 어느 위치로 설정하는가에 따라, 사용자가 원하는 정보의 위치로 포인터(44)를 이동시키는 것이 어렵거나 쉬워질 수 있다. 만일, 센싱기가 사용자의 손에 착용되어 있을 경우, 사용자에 따라서는 손을 좌 방향으로 움직이는 동작이 우 방향으로 움직이는 동작보다 용이할 수 있다. 이 경우, 사용자는 도 3에 도시된 크기 메뉴(60)에서 초기 위치(100)의 좌표(Xo)를 크게 설정하여 우 방향으로의 움직임 범위를 좌 방향으로의 움직임 범위보다 적게 할 수 있다. 또한, 손을 우 방향으로 움직이는 동작이 좌 방향으로 움직이는 동작보다 용이할 수 있다. 이 경우, 사용자는 도 3에 도시된 크기 메뉴(60)에서 초기 위치(100)의 좌표(Xo)를 작게 설정하여 좌 방향으로의 움직임 범위를 우 방향으로의 움직임 범위보다 적게 할 수 있다. 또한, 손을 전 방향으로 움직이는 동작이 후 방향으로 움직이는 동작보다 용이할 수 있다. 이 경우, 사용자는 도 3에 도시된 크기 메뉴(60)에서 초기 위치(100)의 좌표(Yo)를 작게 설정하여 후 방향으로의 움직임 범위를 전 방향으로의 움직임 범위보다 적게 할 수 있다. 또한, 손을 후 방향으로 움직이는 동작이 전 방향으로 움직이는 동작보다 용이할 수 있다. 이 경우, 사용자는 도 3에 도시된 크기 메뉴(60)에서 초기 위치(100)의 좌표(Yo)를 크게 설정하여 전 방향으로의 움직임 범위를 후 방향으로의 움직임 범위보다 적게 할 수 있다. 이와 같이, 사용자는 센싱기를 착용하고 있는 자신의 신체 부위 예를 들면 손의 동작 원할 정도에 따라 자유롭게 초기 위치를 설정할 수 있다.
게다가, 본 발명에 의하면, 제10 단계에서, 사용자는 포인팅 화면(42)을 이동시킬 속도를 결정할 수도 있다. 이를 위해, 도 3에 도시된 메뉴 화면(40A)은 포인팅 화면(42)을 이동시킬 속도를 결정할 때 사용되는 속도 메뉴(62)를 마련할 수 있다. 여기서, 속도 메뉴(62)는 다이얼 모양의 속도 선택키(70) 및 속도 표시창(72)으로 구성된다. 예를 들어, 사용자가 센싱기를 움직여서 속도 선택키(70)를 시계 방향이나 반 시계 방향으로 회전시켜 원하는 속도에 지침(130)을 위치시키면, 속도 표시창(72)에 사용자에 의해 선택된 속도가 디스플레이된다. 예를 들어, 포인팅 화면(42)의 이동 속도가 큰 값으로 설정될 경우 포인팅 화면(42)은 빨리 이동하고, 포인팅 화면(42)의 이동 속도가 적은 값으로 설정될 경우 포인팅 화면(42)은 느리게 이동한다.
그 밖에, 본 발명에 의하면, 제10 단계에서 사용자는 센싱기의 움직임에 따른 포인터(44)의 반응 정도를 결정할 수도 있다. 이를 위해, 도 3에 도시된 메뉴 화면(40A)은 포인터(44)의 반응 정도를 결정할 때 사용되는 반응 메뉴(64)를 마련할 수 있다. 여기서, 반응 메뉴(64)는 다이얼 모양의 반응 선택키(74) 및 반응 표시창(76)으로 구성될 수 있다. 예를 들어, 사용자가 센싱기를 움직여서 반응 선택키(74)를 시계 방향이나 반 시계 방향으로 회전시켜 원하는 반응 정도에 지침(132)을 위치시키면, 반응 표시창(76)에 사용자에 의해 선택된 반응 정도가 디스플레이된다. 예를 들어, 반응 정도가 높게 설정될 경우 센싱기의 작은 움직임에도 포인터(44)는 민감하게 반응하여 크게 움직인다. 그러므로, 포인터(44)를 빈번하게이동시켜야 하거나, 포인터(44)를 크게 이동시켜야 할 때, 반응 정도를 높게 설정하면 된다. 그러나, 반응 정도가 낮게 설정될 경우 센싱기의 큰 움직임에도 포인터(44)가 작게 움직인다. 그러므로, 포인터(44)를 조금씩 움직여야 하거나 세밀하게 움직일 필요가 있을 때, 반응 정도를 낮게 설정하면 된다.
또한, 사용자는 도 3에 도시된 메뉴 화면(40A)에서 포인팅 화면(42)의 크기, 초기 위치(100), 반응 정도 및/또는 이동 속도가 원하는 대로 결정되었을 때, 센싱기를 움직여서 조작키(90)를 포인팅하고 클릭할 수 있으며, 도 2에 도시된 메뉴 화면(40)이 전체 화면(46)에서 디스플레이되지 않도록 하기 위해 센싱기를 움직여서 조작키(92)를 포인팅하고 클릭할 수 있으며, 결정된 크기, 초기 위치, 반응 정보 및/또는 이동 속도를 본 발명에 의한 정보 포인팅 방법에 적용시키기 위해 센싱기를 움직여서 조작키(94)를 포인팅하여 선택할 수도 있다.
한편, 전술한 본 발명에 의한 정보 포인팅 방법에서, 도 2에 도시된 포인팅 화면(42)을 전, 후, 좌 및 우 방향들중 적어도 하나의 방향으로 이동시키거나 포인팅 화면(42)의 내부에서 포인터(44)를 전, 후, 좌 및 우 방향들중 적어도 하나의 방향으로 이동시키거나 메뉴 화면(40)에서 원하는 메뉴를 선택하기 위해, 사용자의 신체의 소정 부위에 착용된 센싱기를 움직인다. 이 때, 움직여진 센싱기로부터 발생되는 센싱된 결과를 처리하여 원하는 정보의 포인팅을 인식하거나 또는 센싱된 결과를 처리하여 포인팅된 정보를 입력 정보로서 결정하는 정보 입력 장치에 대한 많은 실시예들이 종래에 개시되어 있다.
이하, 본 발명의 이해를 돕기 위해, 본 발명에 의한 정보 포인팅 방법에서 이용될 수 있는 정보 입력 장치의 일 실시예의 구성 및 동작과 그 장치에서 수행될 수 있는 정보 입력 방법을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 9는 도 2에 도시된 센싱부(19)에서 센싱되는 손가락의 관절 각도(θ)를 설명하기 위한 손가락(422)을 나타내는 도면이다.
도 2 및 도 9를 참조하면, 사용자는 모니터를 통해 디스플레이되는 전체 화면(46)의 일부인 포인팅 화면(42)에 포함된 다수개의 정보들중 포인팅하기를 원하는 정보를 손가락(422)을 아래 또는 윗 방향(432)으로 구부려서 포인팅할 수 있다. 이 때, 정보 입력 장치는 센싱부(19)를 이용하여 손가락(422)의 구부림을 센싱하고, 센싱된 결과로부터 손가락(422)의 관절 각도(θ)를 검출하고, 검출된 관절 각도(θ)를 이용하여 사용자가 포인팅하기를 원하는 정보를 인식한다.
도 10은 손가락의 관절 각도를 이용한 정보 입력 방법을 설명하기 위한 플로우차트로서, 손가락이나 손의 움직임으로부터 필요한 정보를 산출하는 단계(제440 및 제442 단계들) 및 산출된 정보로부터 찾은 1차원적인 위치에 존재하는 정보를 선택하는 단계(제444 단계)로 이루어진다.
도 11은 도 10에 도시된 정보 입력 방법을 수행할 수 있는 정보 입력 장치의 일 실시예의 블럭도로서, 센싱부(19A), 아날로그/디지탈 변환부(ADC:Analog to Digital Converter)(462), 신호 처리부(464), 인터페이스부(466) 및 정보 선택부(468)로 구성된다.
도 11에 도시된 센싱부(19A)는 도 2에 도시된 센싱부(19)의 실시예로서, 제1 ∼ 제6 센싱기들(480, 482, 484, 486, 488 및 490)로 구성된다. 여기서, 제1, 제2, 제3, 제4, 제5 및 제6 센싱기들(480, 482, 484, 486, 488 및 490) 각각은 도 2에 도시된 바와 같이 손과 손가락에 씌워지는 장갑 형태의 부재에 부착될 수 있다.
먼저, 제1 센싱기(480)는 사용자가 포인팅 화면(42)을 보면서 포인팅 화면(42)상에 존재하는 정보들중에서 원하는 정보를 포인팅하기 위해 적어도 하나 이상의 손가락(422)을 구부릴 때, 손가락(422)의 구부림을 센싱하고, 센싱된 결과를 출력한다(제440 단계). 여기서, 제1 센싱기(480)로부터 출력되는 센싱된 결과는 제1 센싱기(480)가 구현되는 모습에 따라 아날로그 또는 디지탈 형태가 될 수 있다. 만일, 제1 센싱기(480)로부터 출력되는 센싱된 결과가 아날로그 형태인 경우, 도 11에 도시된 바와 센싱부(19A)와 신호 처리부(464) 사이에 ADC(462)가 부가적으로 마련된다. ADC(462)는 센싱부(19A)로부터 출력되는 적어도 하나 이상의 센싱된 결과를 디지탈 형태로 변환하고, 변환된 결과를 신호 처리부(464)로 출력한다. 예를 들면, ADC(462)는 센싱부(19A)로부터 출력되는 아날로그 형태의 전압을 펄스 폭 변조(PWM:Pulse Width Modulation)하고, 펄스 폭 변조된 결과를 신호 처리부(464)로 출력할 수 있다.
이하, 제1 센싱기(480)의 실시예들 각각의 구성 및 동작을 첨부된 도면들을 참조하여 다음과 같이 설명한다.
도 12는 도 11에 도시된 제1 센싱기(480)의 일 실시예의 외관을 설명하기 위한 도면으로서, 손가락(422)에 씌워지는 장갑(490) 및 장갑(490)에 부착되는 제1 센싱기(500)로 구성된다.
도 12를 참조하면, 제1 센싱기(500)는 손가락(422)의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되어 손가락(422)을 위나 아래로 구부린 각도(θ)에 따라 저항을 가변시키고, 가변된 저항에 상응하는 레벨을 갖는 센싱된 결과를 출력하는 가변 저항으로 구현될 수 있다. 여기서, 손가락(422)의 한 쪽 마디 및 다른 쪽 마디는 도 12에 도시된 바와 같이 손가락(422) 끝으로부터 세 번째 마디(506) 및 두 번째 마디(502)가 될 수도 있고, 도 12에 도시된 바와 달리, 손가락(422) 끝으로부터 세 번째 마디(506) 및 첫 번째 마디(504)가 될 수도 있다.
이를 위해, 제1 센싱기(500)는 제1 고정 부재(494), 제1 유동 부재(492) 및 중심축(496)으로 구현될 수 있다. 제1 고정 부재(494)는 손가락(422)의 한 쪽 마디에 부착되고, 제1 유동 부재(492)는 손가락의 다른 쪽 마디에 부착되며, 제1 고정 부재(494)와 제1 유동 부재(492)는 중심축(496)에 의해 서로 연결되어 연동 운동을 한다. 여기서, 손가락(422)이 아래 또는 위 방향(486)으로 구부려질 때, 제1 고정 부재(494)는 움직이지 않으나 제1 유동 부재(496)는 움직임을 알 수 있다. 따라서, 제1 유동 부재(492)가 움직임에 따라 제1 센싱기(500)는 다음과 같이 저항을 가변시킨다.
도 13은 도 12에 도시된 제1 센싱기(500)의 등가 회로도로서, 저항들(R1 및 R2)로 구성된다.
도 13을 참조하면, 손가락(422)이 구부려지지 않고 곧게 펴진 상태에서, 저항들(R1 및 R2)은 동일한 값을 유지하고, 손가락(422)이 아래 방향으로 구부려짐에 따라 저항(R1)의 값과 저항(R2)의 값은 서로 달라진다. 그러므로, 손가락(422)이 구부려짐에 따라 출력단자 OUT2를 통해 출력되는 전압값은 변동한다. 결국, 도 12에 도시된 제1 센싱기(500)는 손가락(422)이 구부려짐에 따라 가변되는 레벨을 갖는 전압을 센싱된 결과로서 출력함을 알 수 있다.
도 14는 도 11에 도시된 제1 센싱기(480)의 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(422)에 씌워지는 장갑(518) 및 장갑(518)에 부착되는 제1 센싱기(540)로 구성된다.
도 14를 참조하면, 제1 센싱기(540)는 손가락(422)의 한 쪽 마디와 다른 쪽 마디에 걸쳐서 마련되며 손가락(422)을 구부린 각도(θ)에 따라 커패시턴스를 가변시키고, 가변된 커패시턴스에 상응하는 레벨을 갖는 센싱된 결과를 출력하는 가변 커패시터 즉, 트리머(trimmer) 커패시터로 구현될 수 있다. 여기서, 손가락(422)의 한 쪽 마디 및 다른 쪽 마디는 도 14에 도시된 바와 같이 손가락(422) 끝으로부터 세 번째 마디(510) 및 두 번째 마디(512)가 각각 될 수도 있고, 도 14에 도시된 바와 달리, 손가락(422) 끝으로부터 세 번째 마디(510) 및 첫 번째 마디(514)가 각각 될 수도 있다.
이를 위해, 제1 센싱기(540)는 제2 고정 부재(522) 및 제2 유동 부재(520)로 구현될 수 있다. 제2 고정 부재(522)는 손가락(422)의 한 쪽 마디에 부착되며 부도체(524) 및 도체(526)를 갖고, 제2 유동 부재(520)는 손가락(422)의 다른 쪽 마디에 부착되며 부도체(528) 및 도체(530)를 갖는다. 여기서, 손가락(422)이 구부려짐에 따라 즉, 손가락(422)이 위 또는 아래 방향(516)로 움직임에 따라 제2 고정 부재(522)는 움직이지 않으나 제2 유동 부재(520)는 움직임을 알 수 있다. 따라서, 제2 고정 부재(522)의 도체(526)와 제2 유동 부재(520)의 도체(530)가 서로 마주보는 면적이 손가락(422)의 구부려짐에 따라 변하게 되며, 이러한 마주보는 면적의 변화로 인해 커패시턴스가 변한다. 이 때, 제1 센싱기(540)는 이러한 커패시턴스의 변화량에 상응하여 가변되는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.
도 15 (a), (b) 및 (c)들은 도 11에 도시된 제1 센싱기(480)의 또 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(422)에 씌워지는 장갑(562) 및 장갑(562)에 부착되는 제1 센싱기(560)로 구성된다.
도 15 (a), (b) 및 (c)들을 참조하면, 제1 센싱기(560)는 손가락(422)의 마디들중 어느 한 쪽에도 마련될 수 있으며, 손가락(422)을 구부린 각도를 센싱하고, 센싱된 결과를 출력하는 관성 센서로 구현될 수 있다. 여기서, 관성 센서(560)는 도 15 (a)에 도시된 바와 같이 손가락(422) 끝으로부터 세 번째 마디(570)에 부착될 수도 있고, 도 15 (b)에 도시된 바와 같이 손가락(422) 끝으로부터 두 번째 마디(572)에 부착될 수도 있고, 도 15 (c)에 도시된 바와 같이 손가락(422) 끝으로부터 첫 번째 마디(574)에 부착될 수도 있다. 이를 위해, 관성 센서(560)는 자이로 센서(미도시) 및 가속도 센서(미도시)로 구현될 수 있다. 만일, 관성 센서(560)가 자이로 센서로 구현될 경우, 관성 센서(560)는 손가락(422)이 위 또는 아래 방향(564)으로 구부려짐에 따라 가변되는 각속도를 검출하고, 검출된 각속도에 상응하는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다. 그러나, 관성 센서(560)가 가속도 센서로 구현될 경우, 관성 센서(560)는 손가락(422)이 위 또는 아래 방향(564)으로 구부려짐에 따라 가변되는 가속도를 검출하고, 검출된 가속도에 상응하는 레벨을 갖는 디지탈 또는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.
도 16은 도 11에 도시된 제1 센싱기(480)의 또 다른 실시예의 블럭도로서, 발광부(590), 회전 원판(592) 및 수광부(594)로 구성된다.
도 16을 참조하면, 회전 원판(592)은 손가락(422)이 구부려질 때 중심축(600)을 기준으로 시계나 반시계 방향(598)으로 회전하며 그의 외측에 복수개의 홈들(596)을 마련하고 있다. 이 때, 발광부(590)는 회전 원판(592)의 홈(596)에 빛을 조사하고, 수광부(594)는 홈(596)을 통과하거나 반사한 빛을 수광하고, 수광된 빛을 전기적인 신호로 변환하며, 변환된 전기적인 신호를 센싱된 결과로서 출력단자 OUT3을 통해 출력한다. 예를 들면, 원하는 정보를 포인팅하고자 하는 사용자가 손가락(422)을 구부릴 때 회전 원판(592)은 시계 방향이나 반 시계 방향(598)으로 회전하며, 수광부(594)는 회전 원판(592)이 회전함에 따라 시간당 발생되는 펄스의 개수를 달리 갖는 디지탈 형태의 전기적인 신호를 출력단자 OUT3을 통해 출력한다. 따라서, 이 경우, 도 11에 도시된 ADC(462)는 필요하지 않게 된다. 도 16에 도시된 제1 센싱기는 회전 인코더(rotary encoder)의 구성 및 동작과 동일함을 알 수 있다.
도 17은 도 11에 도시된 제1 센싱기(480)의 또 다른 실시예의 외관을 설명하기 위한 도면으로서, 손가락(422)에 씌워지는 장갑(610) 및 장갑(610)에 부착되는 제1 센싱기(630)로 구성된다.
도 17을 참조하면, 제1 센싱기(630)는 자석(614) 및 자속 방향 측정부(612)로 구성된다. 여기서, 자석(614)은 손가락(422)의 한 쪽 마디에 마련되고, 자속 방향 측정부(612)는 손가락(422)의 다른 쪽 마디에서 자석(614)으로부터 발생되는 자속이 흐르는 방향으로 위치되어 자속이 흐르는 방향을 측정하고, 측정된 방향을 센싱된 결과로서 출력한다. 여기서, 손가락(422)의 한 쪽 마디는 손가락(422)의 바깥쪽 마디에 해당하고, 손가락(422)의 다른 쪽 마디는 손가락(422)의 안쪽 마디에 해당하는 것이 바람직하다. 왜냐하면, 자속 방향 측정부(612)의 출력은 ADC(462)와 유선으로 연결될 수 있으므로 움직이지 않은 안쪽 마디에 마련되는 것이 바람직하고, 자석(614)은 움직이는 바깥쪽 마디에 마련되는 것이 바람직하다. 이 때, 도 17에 도시된 바와 같이 손가락(422)의 바깥 쪽 마디는 손가락(422) 끝으로부터 두 번째 마디(622)에 해당하고, 손가락(422)의 안 쪽 마디는 손가락(422)의 끝으로부터 세 번째 마디(620)에 해당할 수도 있고, 도 17에 도시된 바와 달리, 손가락(422)의 바깥 쪽 마디는 손가락(422)의 끝으로부터 첫 번째 마디(624)에 해당하고, 손가락(422)의 안 쪽 마디는 손가락(422)의 끝으로부터 세 번째 마디(620)에 해당할 수도 있다. 이 때, 자속 방향 측정부(612)는 손가락(422)이 위 또는 아래 방향(626)으로 구부려짐에 따라 가변되는 자속의 방향을 검출하고, 검출된 방향을 아날로그 형태의 센싱된 결과로서 출력한다. 이를 위해, 자속 방향 측정부(612)는 자이언트 마그네토 레지스티브(GMR:Giant Magneto Resistive) 센서(미도시)로 구현될 수 있다.
전술한 제1 센싱기(480) 및 그의 실시예들은 오른손 및/또는 왼손의 손가락들중 적어도 하나에서 어느 마디에도 부착될 수 있다. 그러나, 전술한 바와 같이. 제1 센싱기(480) 및 그의 실시예들은 사용자가 정보를 포인팅하기 위해서 손가락(422)을 구부릴 때, 손가락(422)의 구부러진 각도가 최대로 변하는 부분에 마련되는 것이 바람직하다.
한편, 도 11에 도시된 센싱부(19A)는 손가락(422)의 구부림 뿐만 아니라 손이나 손가락(422)의 다른 움직임을 다음과 같이 센싱할 수도 있다(제440 단계). 이를 위해, 제2 센싱기(482)는 손가락(422)의 전 또는 후 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 제3 센싱기(484)는 손의 전 또는 후 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 또한, 제4 센싱기(486)는 손의 좌 또는 우 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 또한, 제5 센싱기(488)는 손가락(422)의 좌 또는 우 방향의 움직임을 센싱하고, 센싱된 결과를 출력한다. 이 때, 제6 센싱기(490)는 손가락(422) 끝으로부터 세번째 관절(424)의 움직임을 센싱하고, 센싱된 결과를 출력하는 역할을 하며, 손가락(422)의 첫 번째 마디(426), 두 번째 마디(428) 또는 세 번째 마디(430)에 마련될 수 있다. 여기서, 제2, 제5 및/또는 제6 센싱기들(482, 488 및/또는 490)은 오른손 및/또는 왼손의 적어도 하나 이상의 손가락(422)의 어느 마디에도 마련될 수 있고, 제3 및/또는 제4 센싱기(484 및/또는 486)는 오른손 및/또는 왼손의 손등 및/또는 손바닥에 마련될 수 있다. 그러나, 제2, 제3, 제4, 제5 및 제6 센싱기들(482, 484, 486, 488 및 490) 각각은 손이나 손가락의 움직임이 최대로 되는 변하는 마디에 마련되는 것이 바람직하다.
도 11에 도시된 제2, 제3, 제4, 제5 및 제6 센싱기들(482, 484, 486, 488 및 490) 각각은 관성 센서로 구현될 수 있다. 예컨데, 제2, 제5 또는 제6 센싱기(482, 488 또는 490)를 구현하는 관성 센서(미도시)는 손가락(422)에 부착되어 손가락의 상하, 좌우 또는 세번째 관절(424)의 움직임을 각각 센싱하고, 센싱된 결과를 출력한다. 제3 또는 제4 센싱기(484 또는 486)를 구현하는 관성 센서(미도시)는 손에 부착되어 손의 전, 후, 좌 또는 우 방향의 움직임을 각각 센싱하고, 센싱된 결과를 출력한다. 여기서, 제2, 제3, 제4, 제5 및 제6 센싱기들(482, 484, 486, 488 및 490) 각각을 구현하는 관성 센서는 자이로 센서(미도시) 또는 가속도 센서(미도시)로 구현될 수 있다. 만일, 관성 센서가 자이로 센서로 구현될 경우, 관성 센서는 손이나 손가락의 움직임에 따라 변하는 각속도에 상응하는 레벨을 갖는 아날로그 형태의 전압을 센싱된 결과로서 출력한다. 그러나, 관성 센서가 가속도 센서로 구현될 경우, 관성 센서는 손이나 손가락의 움직임에 따라 변하는 가속도에 상응하는 레벨을 갖는 디지탈 또는 아날로그 형태의 전압을 센싱된 결과로서 출력한다.
전술한 제2, 제3, 제4 및 제5 센싱기들(482, 484, 486 및 488)로부터 출력되는 센싱된 결과들은 포인팅 화면(42)에서 사용자가 포인팅한 정보를 인식하기 위해서 사용된다. 그러나, 제6 센싱기(490)로부터 출력되는 센싱된 결과는 포인팅된 정보를 사용자가 입력 정보로서 결정하기 위해 클릭하였는가를 결정하기 위해 사용된다.
한편, 제440 단계후에, 신호 처리부(464)는 손가락(422)의 구부려진 각도(θ)를 제1 센싱기(480)로부터 입력한 센싱된 결과로부터 산출한다(제442 단계). 만일, 제1 센싱기(480)가 도 12, 도 14, 도 15 (a), (b) 또는 (c)에 도시된 바와 같이 구현될 경우, 신호 처리부(464)는 가변된 저항값, 가변된 커패시턴스, 가변된 각속도 또는 가속도에 상응하는 레벨을 갖는 디지탈 형태의 전압으로부터 손가락(422)의 구부러진 각도(θ)를 산출한다. 그러나, 제1 센싱기(480)가 도 16에 도시된 바와 같이 구현될 경우, 신호 처리부(464)는 수광부(594)로부터 입력한 전기적인 신호가 갖는 단위 시간당 펄스의 갯수를 카운팅하고, 카운팅된 결과로부터 손가락(422)의 구부러진 각도(θ)를 산출한다. 또한, 제1 센싱기(480)가 도 17에 도시된 바와 같이 구현될 경우, 신호 처리부(464)는 자속 방향 측정부(612)로부터 입력한 방향으로부터 각도를 산출한다.
또한, 전술한 바와 같이 각도를 산출할 뿐만 아니라, 제440 단계후에, 신호 처리부(464)는 손 및/또는 손가락(422)의 움직임을 센싱한 결과로부터 필요한 정보 즉, 각종 변위를 산출할 수도 있다(제442 단계). 이를 위해, 신호 처리부(464)는 제2 센싱기(482)에서 센싱된 결과로부터 손가락(422)의 전 또는 후 방향의 움직임의 정도를 제1 변위로서 산출하고, 제3 센싱기(484)에서 센싱된 결과로부터 손의 전 또는 후 방향의 움직임의 정도를 제2 변위로서 산출하며, 제4 센싱기(486)에서 센싱된 결과로부터 손의 좌 또는 우 방향의 움직임의 정도를 제3 변위로서 산출하고, 제5 센싱기(488)에서 센싱된 결과로부터 손가락(422)의 좌 또는 우 방향의 움직임의 정도를 제4 변위로서 산출하고, 제6 센싱기(490)에서 센싱된 결과로부터 손가락(422)의 끝에서부터 세번째 관절(424)의 움직임의 정도를 제5 변위로서 산출한다.
이 때, ADC(462)가 마련될 경우, 신호 처리부(464)는 ADC(462)로부터 입력한 디지탈 형태의 센싱된 결과로부터 각도 및/또는 해당하는 변위를 산출하지만, ADC(462)가 마련되지 않을 경우 센싱부(19A)로부터 입력한 센싱된 결과로부터 각도 및/또는 해당하는 변위를 산출한다. 또한, 도 11에 도시된 신호 처리부(464)와 정보 선택부(468) 사이에 선택적으로 마련되는 인터페이스부(466)는 신호 처리부(464)로부터 입력한 각도 및/또는 각종 변위를 전송 형태로 변환하고, 변환된 각도나 각종 변위를 정보 선택부(468)로 유선 또는 무선으로 전송한다.
한편, 센싱부(19A)가 제1 센싱기(480)로만 구현될 경우, 제442 단계후에, 정보 선택부(468)는 신호 처리부(464)에서 산출된 각도로부터 포인팅 화면(42)에서의 1차원적인 위치를 결정하고, 결정된 1차원적인 위치에 존재하는 정보를 사용자가 포인팅하기를 원하는 정보로서 인식하고, 인식된 정보를 출력단자 OUT1을 통해 출력한다(제444 단계). 여기서, 1차원적인 위치란, 포인팅 화면(42) 내부에서 수평 방향으로의 위치 또는 수직 방향으로의 위치가 될 수 있다.
다른 실시예에 의하면, 센싱부(19A)가 제1 센싱기(480) 뿐만 아니라 제2 또는/및 제3 센싱기(482 또는/및 484)를 부가적으로 마련할 경우, 제442 단계후에, 정보 선택부(468)는 제1 또는/및 제2 변위와 각도로부터 포인팅 화면(42)의 1차원적인 위치를 결정하고, 결정된 1차원적인 위치에 존재하는 정보를 사용자가 포인팅하기를 원하는 정보로서 인식하고, 인식된 정보를 출력단자 OUT1을 통해 출력한다(제444 단계).
이하, 제444 단계에 대한 바람직한 일 실시예(444A) 및 그 실시예(444A)를 수행하는 정보 선택부(468)의 실시예의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 18은 도 10에 도시된 제444 단계에 대한 일 실시예(444A)를 설명하기 위한 플로우차트로서, 제1 각도 범위들중 해당하는 제1 각도 범위로부터 찾은 1차원적인 위치에 있는 정보를 찾는 단계(제650 ∼ 제654 단계들)로 이루어진다.
도 19는 도 18에 도시된 제444A 단계를 수행하는 도 11에 도시된 정보 선택부(468)의 실시예(468A)의 블럭도로서, 제1 각도 범위 결정부(670), 제1 위치 매핑부(672) 및 정보 인식부(674)로 구성된다.
제442 단계후에, 제1 소정수의 소정의 제1 각도 범위들중에서 해당하는 제1 각도 범위를 선택한다(제650 단계). 여기서, 제1 소정수는 1차원적인 위치의 개수를 나타내며, 포인팅 화면(42)에서 수평 또는 수직 방향으로 존재하는 정보의 개수를 의미한다.
먼저, 신호 처리부(464)가 각도만을 산출하였다면, 제650 단계를 수행하기 위해, 제1 각도 범위 결정부(670)는 신호 처리부(464)로부터 입력단자 IN1을 통해 입력한 각도와 제1 소정수의 소정의 제1 각도 범위들을 비교하고, 산출된 각도가 속하는 제1 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 제1 각도 범위를 제1 위치 매핑부(672)로 출력한다. 예를 들면, 각도가 0 ∼ 90°사이에서 산출될 수 있고 제1 소정수는 '3'이며 제1 각도 범위들은 0 ∼ 30°, 30 ∼ 60°및 60 ∼ 90°라고 가정할 때, 제1 각도 범위 결정부(670)는 신호 처리부(464)에서 산출된 각도가 세 개의 제1 각도 범위들중 어느 범위에 속하는가를 결정한다(제650 단계).
또한, 신호 처리부(464)가 각도와 제1 또는/및 제2 변위를 산출하였다면, 제650 단계를 수행하기 위해, 제1 각도 범위 결정부(670)는 신호 처리부(464)로부터 입력단자 IN1을 통해 각도와 제1 또는/및 제2 변위를 입력하고, 입력한 각도와 제1 또는/및 제2 변위에 해당하는 각도를 합한 결과가 속하는 해당하는 제1 각도 범위를 선택한다.
제650 단계후에, 선택된 제1 각도 범위와 매핑되는 1차원적인 위치를 찾는다(제652 단계). 이를 수행하기 위해, 제1 위치 매핑부(672)는 제1 각도 범위 결정부(670)로부터 입력한 제1 각도 범위와 매핑되는 1차원적인 위치를 검색하고, 검색된 1차원적인 위치를 정보 인식부(674)로 출력한다.
제652 단계후에, 검색된 1차원적인 위치와 매핑되는 정보를 찾고, 찾아진 정보를 사용자가 포인팅한 정보로서 인식한다(제654 단계). 이를 위해, 정보 인식부(674)는 제1 위치 매칭부(672)로부터 입력한 1차원적인 위치와 매핑되는 정보를 검색하고, 검색된 정보를 사용자가 포인팅한 정보로서 인식하고, 인식한 정보를 출력단자 OUT4를 통해 출력한다. 이를 위해, 정보 인식부(674)는 1차원적인 위치들에 존재하는 정보들 또는 그 정보들의 좌표값들을 미리 저장하는 저장부(미도시)와 제1 위치 매핑부(672)로부터 입력한 1차원적인 위치를 어드레스로하여 저장부에 저장된 정보나 좌표값을 독출시키는 독출부(미도시)로 구현될 수 있다.
그러나, 센싱부(19A)가 제1 센싱기(480) 뿐만 아니라 제4 또는/및 제5 센싱기(486 또는/및 488)를 부가적으로 마련할 경우, 제442 단계후에, 정보 선택부(468)는 제3 또는/및 제4 변위와 각도로부터 포인팅 화면에서의 2차원적인 위치를 결정하고, 결정된 2차원적인 위치에 존재하는 정보를 사용자가 포인팅한 정보로서 인식한다(제444 단계). 여기서, 2차원적인 위치란, 포인팅 화면에서 수평 및 수직 방향들에서의 위치를 의미한다.
이하, 제444 단계에 대한 다른 실시예(444B) 및 그 실시예(444B)를 수행하는 정보 선택부(468)의 실시예의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 20은 도 10에 도시된 제444 단계에 대한 다른 실시예(444B)를 설명하기 위한 플로우차트로서, 제1 각도 범위들중 해당하는 제1 각도 범위와 제2 각도 범위들중 해당하는 제2 각도 범위로부터 1차원적인 위치들을 찾는 단계(제690 및 제692 단계들) 및 1차원적인 위치들로부터 찾은 2차원적인 위치를 이용하여 정보를 찾는 단계(제694 단계들)로 이루어진다.
도 21은 도 20에 도시된 제444B 단계를 수행하는 도 11에 도시된 정보 선택부(468)의 실시예(468B)의 블럭도로서, 제1 및 제2 각도 범위 결정부들(670 및 710), 제1 및 제2 위치 매핑부들(672 및 712) 및 정보 인식부(714)로 구성된다.
제442 단계후에, 제1 소정수의 제1 각도 범위들중에서 해당하는 제1 각도 범위를 선택하고, 제2 소정수의 소정의 제2 각도 범위들중에서 해당하는 제2 각도 범위를 선택한다(제690 단계). 여기서, 제2 소정수는 제2 각도 범위들과 매핑될 수 있는 1차원적인 위치의 개수를 나타낸다. 만일, 제1 소정수가 포인팅 화면에서 수평 방향으로 존재하는 정보의 개수를 나타낸다면 제2 소정수는 포인팅 화면에서 수직 방향으로 존재하는 정보의 개수를 나타내고, 제1 소정수가 포인팅 화면에서 수직 방향으로 존재하는 정보의 개수를 나타낸다면 제2 소정수는 포인팅 화면에서 수평 방향으로 존재하는 정보의 개수를 나타낸다.
제690 단계에서, 해당하는 제1 각도 범위를 선택하는 과정에 대한 설명은 전술한 제650 단계와 동일하므로 생략한다. 즉, 해당하는 제1 각도 범위는 도 19에 도시된 제1 각도 범위 결정부(670)와 동일한 도 21에 도시된 제1 각도 범위 결정부(670)에서 선택된다. 이 때, 해당하는 제2 각도 범위를 선택하기 위해, 제2 각도 범위 결정부(710)는 제2 소정수의 소정의 제2 각도 범위들을 신호 처리부(464)로부터 입력단자 IN2를 통해 입력한 제3 및/또는 제4 변위와 비교하고, 제3 및/또는 제4 변위가 속하는 제2 각도 범위를 비교된 결과에 응답하여 선택하고, 선택된 제2 각도 범위를 제2 위치 매핑부(712)로 출력한다. 예컨데, 제3 또는/및 제4 변위가 산출되었을 경우, 제2 각도 범위 결정부(710)는 신호 처리부(464)에서 산출된 제3 또는/및 제4 변위에 속하는 해당하는 제2 각도 범위를 제2 소정수의 제2 각도 범위들중에서 선택한다.
제690 단계후에, 선택된 제1 각도 범위와 매핑되는 1차원적인 위치를 찾고, 선택된 제2 각도 범위와 매핑되는 1차원적인 위치를 찾는다(제692 단계). 이해를 돕기 위해, 제1 각도 범위와 매핑되는 1차원적인 위치는 포인팅 화면에서 수평 방향의 위치이고, 제2 각도 범위와 매핑되는 1차원적인 위치는 포인팅 화면에서 수직 방향의 위치라고 가정한다. 이 때, 제690 단계를 수행하기 위해, 제1 위치 매핑부(672)는 제652 단계에서와 동일하게 제1 각도 범위와 매핑되는 1차원적인 위치인 수평 방향의 위치를 찾고, 제2 위치 매핑부(712)는 제2 각도 범위 결정부(710)로부터 입력한 제2 각도 범위와 매핑되는 1차원적인 위치인 수직 방향의 위치를 검색하고, 검색된 수직 방향의 위치를 정보 인식부(714)로 출력한다. 예를 들면, 제1 또는 제2 위치 매핑부(672 또는 712)는 제1 또는 제2 소정수의 제1 또는 제2 각도 범위들 각각에 대한 수평 또는 수직 방향의 위치를 미리 저장하는 저장부(미도시)와 제1 또는 제2 각도 범위 결정부(670 또는 710)로부터 입력한 제1 또는 제2 각도 범위를 어드레스로하여 저장부에 저장된 수평 또는 수직 방향의 1차원적인 위치를 독출하는 독출부(미도시)로 구현될 수 있다.
제692 단계후에, 두 개의 1차원적인 위치들 예를 들면 수평 및 수직 방향들로부터 2차원적인 위치 즉, 수평 및 수직 좌표값을 구하고, 2차원적인 위치와 매칭되는 정보를 찾으며, 찾아진 정보를 사용자가 포인팅한 정보로서 인식한다(제694 단계). 이를 위해, 정보 인식부(714)는 제1 위치 매칭부(672)로부터 입력한 1차원적인 위치인 수평 방향의 위치 및 제2 위치 매핑부(712)로부터 입력한 1차원적인 위치인 수직 방향의 위치로부터 결정한 2차원적인 위치인 수평 및 수직 좌표값과 매칭되는 정보를 검색하고, 검색된 정보를 사용자가 포인팅한 정보로서 인식하고, 인식된 정보를 출력단자 OUT5를 통해 출력한다. 예를 들면, 정보 인식부(714)는 2차원적인 위치들 각각에 정보를 미리 저장하는 저장부(미도시)와 제1 위치 매핑부(672) 및 제2 위치 매핑부(712)로부터 입력한 1차원적인 위치들로부터 구한 2차원적인 위치를 어드레스를 하여 저장부에 저장된 정보를 독출시키는 독출부(미도시)로 구현될 수 있다.
여기서, 센싱부(19A)가 제1 센싱기(480) 뿐만 아니라 제2 ∼ 제6 센싱기들(480 ∼ 490)을 오른손 및 왼속에 각각 마련할 경우, 정보 선택부(468)는 복수개의 정보들을 동시에 선택할 수도 있다.
지금까지 포인팅 화면에 표시된 정보들중 사용자가 원하는 정보를 인식하거나 입력하도록 결정하는 정보 입력 장치 및 방법에 대해 살펴보았다. 이 때, 정보 입력 장치 및 방법은 전술한 바와 같이 포인팅된 정보를 입력할 정보로서 다음과 같이 결정할 수 있다.
일반적으로 마우스 등에 익숙한 사용자는 포인팅된 정보를 입력 정보로서 결정하기 위해 클릭 동작을 수행하며, 사용자가 클릭 동작을 수행할 때, 도 9에 도시된 손의 세번째 관절(424)이 움직여진다. 따라서, 포인팅된 정보가 사용자가 입력하기를 원하는 입력 정보인가를 판단하기 위해, 도 10 및 11에 도시된 정보 입력 방법 및 장치는 제6 센싱기(490)를 통해 세번째 관절(424)의 움직임을 센싱한다. 결국, 도 11에 도시된 정보 입력 장치는, 선택된 정보가 사용자가 입력하기를 원하는 정보인가를 결정하기 위해 센싱부(19A)에 제6 센싱기(490)를 마련할 수 있다. 이 때, 정보 선택부(468)는 선택한 정보를 입력할 정보로서 결정할 의도가 사용자에게 있는가를 검사하기 위해, 즉, 세번째 관절(424)의 움직임이 클릭 동작에 해당하는 움직임인가를 검사하기 위해, 신호 처리부(464)에서 산출된 제5 변위를 분석하고, 분석된 결과에 응답하여 포인팅된 정보를 입력 정보로서 결정한다.
한편, 전술한 제2, 제3, 제4, 제5 및 제6 센싱기들(482, 484, 486, 488 및 490) 각각은 정보 입력 장치 및 방법의 응용례에 따라 선택적으로 마련될 수 있다. 즉, 도 11에 도시된 제6 센싱기(490)는 손가락(422)의 클릭 운동을 감지하는 도 2에 도시된 센싱기들(30, 32, 34 및 36) 각각의 역할을 수행할 수 있고, 제3 및 제4 센싱기들(484 및 486)은 손의 전, 후, 좌 및 우 운동을 센싱하는 센싱기(38)의 역할을 수행함을 알 수 있다. 이 때, 센싱기(38)는 제4 센싱기(486)만을 마련하면서 제3 센싱기(484) 대신에 제1 센싱기(480)나 제2 센싱기(482)를 마련할 수도 있다. 이 경우, 손의 전 및 후 방향의 움직임은 손가락의 구부림이나 전 및 후 방향의 움직임으로 대체된다. 또한, 센싱부(19)는 손가락들(20, 22, 24 및 26)중 적어도 하나에 제5 센싱기(488)를 마련하여, 손가락의 좌 또는 우 방향의 움직임을 감지할 수도 있다.
이 때, 본 발명에 의한 정보 포인팅 방법의 경우, 제6 센싱기(490)는 수평 범위 표시창(110) 및/또는 수직 범위 표시창(112)에서 각 화살표를 클릭하기 위해 사용될 수 있고, 초기 위치(100)를 클릭하기 위해 사용될 수도 있다. 여기서, 속도 선택키(70)를 시계 방향이나 반 시계 방향으로 회전시키기 위해서, 예를 들면 제1, 제2, 제3, 제4, 제5 및 제6 센싱기들(480, 482, 484, 486, 488 및 490)이 모두 사용될 수 있다. 이 경우, 해당하는 센싱기를 전, 후, 좌 또는/및 우 방향들중 적어도 하나로 움직여서 포인터(44)를 속도 선택키(70)에 위치시킨 다음, 제6 센싱기(490)를 움직여서 클릭한 후, 다시 제1, 제2, 제3, 제4 및 제5 센싱기들(480, 482, 484, 486 및 488)중 적어도 하나를 사용하여 속도 선택키(70)를 1.0 ∼ 10.0 범위에서 원하는 눈금에 위치시킨다. 이와 비슷하게, 반응 선택키(74)가 조작될 수 있다.
여기서, 제14 및 제16 단계들 각각은 제1, 제2, 제3, 제4 또는 제5 센싱기를 움직여서 수행될 수 있다. 예를 들면, 제4 또는 제5 센싱기(486 또는 488)를 움직여서 포인터(44)나 포인팅 화면(42)을 전, 후, 좌 또는 우 방향으로 이동시킬 수 있다.
이상에서 설명한 바와 같이, 본 발명에 의한 3차원 공간상의 정보 포인팅 방법은 2차원 공간에서 마우스를 사용하는 것과 마찬가지로, 사용자의 손놀림대로 세밀하게 3차원상의 공간에서 포인팅을 수행할 수 있고, 복수개의 포인팅될 수 있는 정보들을 갖는 화면이 사용자의 의도에 따라 설정된 크기로 축소될 수 있으므로 포인팅하기 원하는 정보가 존재하는 위치로 포인터를 매우 쉽고 용이하게 이동시킬 수 있고, 특히, 센싱 감도가 떨어지는 저렴한 센싱기를 사용하고도 정밀하고 세밀한 3차원 공간상에서의 움직임을 전달할 수 있는 효과를 갖는다.
도 1은 본 발명에 의한 3차원 공간상의 정보 포인팅 방법을 설명하기 위한 플로우차트이다.
도 2는 본 발명에 의한 정보 포인팅 방법을 설명하기 위한 전체 화면의 일 예를 나타내는 도면이다.
도 3은 도 2에 도시된 메뉴 화면의 본 발명에 의한 바람직한 일 실시예를 나타내는 도면이다.
도 4는 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예를 설명하기 위한 플로우차트이다.
도 5는 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예를 설명하기 위한 플로우차트이다.
도 6은 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예를 설명하기 위한 플로우차트이다.
도 7은 도 1에 도시된 제14 단계에 대한 본 발명에 의한 실시예를 설명하기 위한 플로우차트이다.
도 8은 도 1에 도시된 제14 단계를 예시적으로 설명하기 위한 전체 화면을 나타내는 도면이다.
도 9는 도 2에 도시된 센싱부에서 센싱되는 손가락의 관절 각도를 설명하기 위한 손가락을 나타내는 도면이다.
도 10은 손가락의 관절 각도를 이용한 정보 입력 방법을 설명하기 위한 플로우차트이다.
도 11은 도 10에 도시된 정보 입력 방법을 수행할 수 있는 정보 입력 장치의 일 실시예의 블럭도이다.
도 12는 도 11에 도시된 제1 센싱기의 일 실시예의 외관을 설명하기 위한 도면이다.
도 13은 도 12에 도시된 제1 센싱기의 등가 회로도이다.
도 14는 도 11에 도시된 제1 센싱기의 다른 실시예의 외관을 설명하기 위한 도면이다.
도 15 (a), (b) 및 (c)들은 도 11에 도시된 제1 센싱기의 또 다른 실시예의 외관을 설명하기 위한 도면이다.
도 16은 도 11에 도시된 제1 센싱기의 또 다른 실시예의 블럭도이다.
도 17은 도 11에 도시된 제1 센싱기의 또 다른 실시예의 외관을 설명하기 위한 도면이다.
도 18은 도 10에 도시된 제444 단계에 대한 일 실시예를 설명하기 위한 플로우차트이다.
도 19는 도 18에 도시된 제444A 단계를 수행하는 도 11에 도시된 정보 선택부의 실시예의 블럭도이다.
도 20은 도 10에 도시된 제444 단계에 대한 다른 실시예를 설명하기 위한 플로우차트이다.
도 21은 도 20에 도시된 제444B 단계를 수행하는 도 11에 도시된 정보 선택부의 실시예의 블럭도이다.

Claims (17)

  1. (a) 복수개의 정보들을 갖는 전체 화면의 일부를 포인팅 화면으로서 설정하는 단계;
    (b) 설정된 상기 포인팅 화면에 포인팅하기를 원하는 정보가 포함되어 있는가를 판단하는 단계;
    (c) 상기 포인팅 화면에 상기 원하는 정보가 포함되지 않은 것으로 판단되면, 상기 포인팅 화면을 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키는 단계; 및
    (d) 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있는 것으로 판단되거나 상기 (c) 단계후에, 상기 포인팅 화면에 포함된 상기 원하는 정보를 포인팅하는 단계를 구비하고,
    상, 하, 전, 후, 좌 및 우 방향들중 적어도 하나의 방향으로 사용자에 의한 움직임을 통해 상기 (a), 상기 (c) 및 상기 (d) 단계들중 적어도 하나가 수행되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  2. 제1 항에 있어서, 상기 (c) 단계는
    (c11) 상기 포인팅 화면에 상기 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 포인팅 화면을 기준으로 상기 원하는 정보가 왼쪽에 위치하는가 오른쪽에 위치하는가를 판단하는 단계;
    (c12) 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 왼쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 좌 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계; 및
    (c13) 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 오른쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 우 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계를 구비하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  3. 제1 항에 있어서, 상기 (c) 단계는
    (c21) 상기 포인팅 화면에 상기 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 앞쪽에 위치하는가 뒤쪽에 위치하는가를 판단하는 단계;
    (c22) 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 앞쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 전 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계; 및
    (c23) 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 뒤쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 후 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계를 구비하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  4. 제1 항에 있어서, 상기 (c) 단계는
    (c31) 상기 포인팅 화면에 상기 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 포인팅 화면을 기준으로 상기 원하는 정보가 왼쪽에 위치하는가 오른쪽에 위치하는가를 판단하는 단계;
    (c32) 상기 이동하기 전의 포인팅 화면을 기준으로 상기 원하는 정보가 왼쪽에 위치하는 것으로 판단되면, 상기 원하는 정보의 수직 위치에 상기 포인팅 화면이 위치될 때까지 상기 포인팅 화면을 상기 좌 방향으로 이동시키는 단계;
    (c33) 상기 이동하기 전의 포인팅 화면을 기준으로 상기 원하는 정보가 오른쪽에 위치하는 것으로 판단되면, 상기 원하는 정보의 수직 위치에 상기 포인팅 화면이 위치될 때까지 상기 포인팅 화면을 상기 우 방향으로 이동시키는 단계;
    (c34) 상기 (32) 단계 또는 상기 (c33) 단계에서 이동된 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있는가를 판단하고, 이동된 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있는 것으로 판단되면 상기 (d) 단계로 진행하는 단계;
    (c35) 이동된 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있지 않은 것으로 판단되면, 이동된 상기 포인팅 화면을 기준으로 상기 원하는 정보가 앞쪽에 위치하는가 뒤쪽에 위치하는가를 판단하는 단계;
    (c36) 이동된 상기 포인팅 화면을 기준으로 상기 원하는 정보가 앞쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 전 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계; 및
    (c37) 이동된 상기 포인팅 화면을 기준으로 상기 원하는 정보가 뒤쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 후 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계를 구비하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  5. 제1 항에 있어서, 상기 (c) 단계는
    (c41) 상기 포인팅 화면에 상기 원하는 정보가 포함되지 않은 것으로 판단되면, 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 앞쪽에 위치하는가 뒤쪽에 위치하는가를 판단하는 단계;
    (c42) 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 앞쪽에 위치하는 것으로 판단되면, 상기 원하는 정보의 수평 위치에 상기 포인팅 화면이 위치될 때까지 상기 포인팅 화면을 상기 전 방향으로 이동시키는 단계;
    (c43) 이동하기 전의 상기 포인팅 화면을 기준으로 상기 원하는 정보가 뒤쪽에 위치하는 것으로 판단되면, 상기 원하는 정보의 수평 위치에 상기 포인팅 화면이 위치될 때까지 상기 포인팅 화면을 상기 후 방향으로 이동시키는 단계
    (c44) 상기 (c42) 단계 또는 상기 (c43) 단계에서 이동된 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있는가를 판단하고, 이동된 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있는 것으로 판단되면 상기 (d) 단계로 진행하는 단계;
    (c45) 이동된 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있지 않은 것으로 판단되면, 이동된 상기 포인팅 화면을 기준으로 상기 원하는 정보가 왼쪽에 위치하는가 오른쪽에 위치하는가를 판단하는 단계;
    (c46) 이동된 상기 포인팅 화면을 기준으로 상기 원하는 정보가 왼쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 좌 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계; 및
    (c47) 이동된 상기 포인팅 화면을 기준으로 상기 원하는 정보가 오른쪽에 위치하는 것으로 판단되면, 상기 포인팅 화면을 상기 우 방향으로 이동시켜 상기 원하는 정보를 상기 포인팅 화면에 포함시키고, 상기 (d) 단계로 진행하는 단계를 구비하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  6. 제1 항에 있어서, 상기 사용자에 의한 상기 움직임은 센싱기에 의해 감지되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  7. 제6 항에 있어서, 상기 (c) 단계에서 상기 포인팅 화면에 상기 원하는 정보가 포함되어 있지 않은 것으로 판단되면, 상기 센싱기를 수평 및 수직 움직임 범위들중 적어도 하나를 초과하여 움직여서 상기 포인팅 화면을 이동시키고,
    상기 수평 및 상기 수직 움직임 범위들은 상기 (d) 단계에서 상기 원하는 정보를 포인팅할 때, 상기 센싱기를 전, 후, 좌 및 우 방향들로 움직일 수 있는 범위에 해당하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  8. 제1 항에 있어서, 상기 (a) 단계에서 상기 포인팅 화면의 수평 및 수직 크기들중 적어도 하나가 결정되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  9. 제1 항에 있어서, 상기 (a) 단계에서 상기 포인팅 화면의 내부에서 최초에 포인팅될 초기 위치가 결정되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  10. 제1 항에 있어서, 상기 (a) 단계에서 상기 포인팅 화면을 이동시킬 속도가 결정되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  11. 제1 항에 있어서, 상기 (a) 단계에서 상기 포인팅 화면에 디스플레이되는 포인터의 상기 움직임에 따른 반응의 정도가 결정되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  12. 제1 항에 있어서, 상기 전체 화면은 그래픽-사용자 인터페이스 화면에 해당하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  13. 제6 항에 있어서, 상기 센싱기는 마우스의 고유한 포인팅 기능을 수행하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  14. 제1 항에 있어서, 상기 (d) 단계에서 포인팅된 정보는 실행되는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  15. 제6 항에 있어서, 상기 센싱기는 정보 입력 장치에 포함되는 것을 특징으로 하는 3차원 공간상의 정보 입력 방법.
  16. 제8 항 내지 제11 항중 어느 한 항에 있어서, 상기 (a) 단계는
    상기 수평 및 수직 크기들중 적어도 하나를 결정할 때 및 상기 초기 위치를 결정할 때 사용되는 크기 메뉴, 상기 포인팅 화면을 이동시킬 속도를 결정할 때 사용되는 속도 메뉴 및 상기 포인터의 반응 정도를 결정할 때 사용되는 반응 메뉴중 적어도 하나를 마련하는 단계를 구비하는 것을 특징으로 하는 3차원 공간상의 정보 포인팅 방법.
  17. 사용자에 의해 설정 가능한 포인팅 화면을 실행하고자 하는 적어도 하나의 정보가 포함되도록 전체 화면의 일부에 형성하는 정보 선택 단계와,
    상기 포인팅 화면에 포함된 정보를 클릭하여 실행하는 정보 실행 단계를 포함하는 것을 특징으로 하는 마우스 기능을 갖는 3차원 공간상의 정보 포인팅 방법.
KR10-2001-0042037A 2001-07-12 2001-07-12 3차원 공간상의 정보 포인팅 방법 KR100480770B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR10-2001-0042037A KR100480770B1 (ko) 2001-07-12 2001-07-12 3차원 공간상의 정보 포인팅 방법
US10/090,643 US20030011567A1 (en) 2001-07-12 2002-03-06 Method for pointing at information in multi-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0042037A KR100480770B1 (ko) 2001-07-12 2001-07-12 3차원 공간상의 정보 포인팅 방법

Publications (2)

Publication Number Publication Date
KR20030006325A KR20030006325A (ko) 2003-01-23
KR100480770B1 true KR100480770B1 (ko) 2005-04-06

Family

ID=19712112

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0042037A KR100480770B1 (ko) 2001-07-12 2001-07-12 3차원 공간상의 정보 포인팅 방법

Country Status (2)

Country Link
US (1) US20030011567A1 (ko)
KR (1) KR100480770B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050060379A (ko) * 2003-12-16 2005-06-22 (주)모비언스 버튼을 이용한 삼차원 회전 및 이동 장치
CN101038522B (zh) * 2006-03-17 2010-05-26 鸿富锦精密工业(深圳)有限公司 可自动适应左右手使用的鼠标
KR100827243B1 (ko) 2006-12-18 2008-05-07 삼성전자주식회사 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
TWI485577B (zh) * 2012-05-03 2015-05-21 Compal Electronics Inc 電子裝置及其操作方法
US9891718B2 (en) * 2015-04-22 2018-02-13 Medibotics Llc Devices for measuring finger motion and recognizing hand gestures
US11036293B2 (en) * 2017-12-07 2021-06-15 Flex Ltd. Method for using fingers to interact with a smart glove worn on a hand

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991007826A1 (en) * 1989-11-22 1991-05-30 Russell David C Computer control system
US5489922A (en) * 1993-12-08 1996-02-06 Hewlett-Packard Company Hand worn remote computer mouse
KR970076362A (ko) * 1996-05-09 1997-12-12 김광호 3차원 포인팅 장치
KR19980036079A (ko) * 1996-11-15 1998-08-05 배순훈 디지탈 데이터 입력용 글러브 인터페이스 장치
KR20030006020A (ko) * 2001-07-11 2003-01-23 삼성전자 주식회사 신체의 관절 각도를 이용한 정보 입력 장치 및 방법
KR20030008066A (ko) * 2001-07-16 2003-01-24 삼성전자 주식회사 착용할 수 있는 정보 입력 장치를 사용한 정보 입력 방법

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4414537A (en) * 1981-09-15 1983-11-08 Bell Telephone Laboratories, Incorporated Digital data entry glove interface device
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5075673A (en) * 1989-06-16 1991-12-24 International Business Machines Corp. Variable speed, image pan method and apparatus
JP2873840B2 (ja) * 1989-11-08 1999-03-24 日立ソフトウェアエンジニアリング株式会社 図形処理装置
US5182728A (en) * 1991-06-28 1993-01-26 Acoustic Imaging Technologies Corporation Ultrasound imaging system and method
US5444462A (en) * 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
EP0609030B1 (en) * 1993-01-26 1999-06-09 Sun Microsystems, Inc. Method and apparatus for browsing information in a computer database
CA2124624C (en) * 1993-07-21 1999-07-13 Eric A. Bier User interface having click-through tools that can be composed with other tools
JP2698320B2 (ja) * 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5710574A (en) * 1995-11-14 1998-01-20 International Business Machines Corporation Method and system for positioning a graphical pointer within a widget of a data processing system graphical user interface
US5877748A (en) * 1995-11-20 1999-03-02 Redlich; Sanford I. Computer control input interface system
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US5963195A (en) * 1996-12-19 1999-10-05 International Business Machines Corporation Hardware-selectable mouse movement
US5867154A (en) * 1997-02-10 1999-02-02 International Business Machines Corporation Method and apparatus to select a display area within a data processing system
US6806863B1 (en) * 1999-10-15 2004-10-19 Harmonic Research, Inc. Body-mounted selective control device
US6067069A (en) * 1997-03-14 2000-05-23 Krause; Philip R. User interface for dynamic presentation of text with a variable speed based on a cursor location in relation to a neutral, deceleration, and acceleration zone
US6292174B1 (en) * 1997-08-23 2001-09-18 Immersion Corporation Enhanced cursor control using limited-workspace force feedback devices
JPH1186015A (ja) * 1997-09-09 1999-03-30 Canon Inc 情報処理方法及び装置及びその記憶媒体
US6075531A (en) * 1997-12-15 2000-06-13 International Business Machines Corporation Computer system and method of manipulating multiple graphical user interface components on a computer display with a proximity pointer
JPH11202999A (ja) * 1998-01-12 1999-07-30 Nec Corp 画像表示装置
US6097387A (en) * 1998-05-11 2000-08-01 Sony Corporation Dynamic control of panning operation in computer graphics
US6184863B1 (en) * 1998-10-13 2001-02-06 The George Washington University Direct pointing apparatus and method therefor
US6952198B2 (en) * 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
US6407749B1 (en) * 1999-08-04 2002-06-18 John H. Duke Combined scroll and zoom method and apparatus
US6731315B1 (en) * 1999-11-30 2004-05-04 International Business Machines Corporation Method for selecting display parameters of a magnifiable cursor
GB9930852D0 (en) * 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv Display for a graphical user interface
US6907580B2 (en) * 2000-12-14 2005-06-14 Microsoft Corporation Selection paradigm for displayed user interface
US6781069B2 (en) * 2000-12-27 2004-08-24 Hewlett-Packard Development Company, L.P. Method and apparatus for virtual interaction with physical documents
US6956590B1 (en) * 2001-02-28 2005-10-18 Navteq North America, Llc Method of providing visual continuity when panning and zooming with a map display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991007826A1 (en) * 1989-11-22 1991-05-30 Russell David C Computer control system
US5489922A (en) * 1993-12-08 1996-02-06 Hewlett-Packard Company Hand worn remote computer mouse
KR970076362A (ko) * 1996-05-09 1997-12-12 김광호 3차원 포인팅 장치
KR19980036079A (ko) * 1996-11-15 1998-08-05 배순훈 디지탈 데이터 입력용 글러브 인터페이스 장치
KR20030006020A (ko) * 2001-07-11 2003-01-23 삼성전자 주식회사 신체의 관절 각도를 이용한 정보 입력 장치 및 방법
KR20030008066A (ko) * 2001-07-16 2003-01-24 삼성전자 주식회사 착용할 수 있는 정보 입력 장치를 사용한 정보 입력 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Graphic-User Interface를 채용한 시스템(예를들어, MicroSoft사의 Window98 등) *

Also Published As

Publication number Publication date
US20030011567A1 (en) 2003-01-16
KR20030006325A (ko) 2003-01-23

Similar Documents

Publication Publication Date Title
KR100446613B1 (ko) 착용할 수 있는 정보 입력 장치를 사용한 정보 입력 방법
US7259756B2 (en) Method and apparatus for selecting information in multi-dimensional space
KR100674090B1 (ko) 착용형 범용 3차원 입력 시스템
US5598187A (en) Spatial motion pattern input system and input method
JP6053803B2 (ja) 情報入力装置及びその制御方法
US20070222746A1 (en) Gestural input for navigation and manipulation in virtual space
KR101705924B1 (ko) 공간 운영 시스템을 위한 공간, 다중-모드 제어 장치
KR20110132349A (ko) 객체의 거동을 모니터링하는 장치 및 방법
KR101036280B1 (ko) 수동 조작 도구를 이용한 3차원 메뉴 시스템
US20040212590A1 (en) 3D-input device and method, soft key mapping method therefor, and virtual keyboard constructed using the soft key mapping method
US10303272B2 (en) Touch sensitive electronic system, processing apparatus and method thereof for simulating stylus as joystick
KR100480770B1 (ko) 3차원 공간상의 정보 포인팅 방법
KR20110097504A (ko) 사용자 모션 인식 방법 및 장치
KR100803200B1 (ko) 신체의 관절 각도를 이용한 정보 입력 장치 및 방법
US6707445B1 (en) Input device
US10884497B2 (en) Method and apparatus for motion capture interface using multiple fingers
JP4221330B2 (ja) インタフェース方法、装置、およびプログラム
KR102322968B1 (ko) 사용자의 손동작에 따른 명령 입력 장치 및 이를 이용한 명령 입력 방법
US20040200955A1 (en) Position detection of a light source
JPH07271504A (ja) 3次元仮想指示入力装置
Reunanen et al. Näprä-Affordable Fingertip Tracking with Ultrasound.
TW202335707A (zh) 應用於混合實境的動作運算系統及動作運算方法
CN106155277A (zh) 电子设备和信息处理方法
KR19980036077A (ko) 개선된 디지탈 글러브 입력 장치
Kim Sensors and Input Processing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120228

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20130227

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee