KR20110021249A - 컴퓨터 시스템 및 이의 구동방법 - Google Patents

컴퓨터 시스템 및 이의 구동방법 Download PDF

Info

Publication number
KR20110021249A
KR20110021249A KR1020090078927A KR20090078927A KR20110021249A KR 20110021249 A KR20110021249 A KR 20110021249A KR 1020090078927 A KR1020090078927 A KR 1020090078927A KR 20090078927 A KR20090078927 A KR 20090078927A KR 20110021249 A KR20110021249 A KR 20110021249A
Authority
KR
South Korea
Prior art keywords
light emitting
infrared light
infrared
coordinate value
image
Prior art date
Application number
KR1020090078927A
Other languages
English (en)
Other versions
KR101103058B1 (ko
Inventor
김근섭
Original Assignee
김근섭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김근섭 filed Critical 김근섭
Priority to KR1020090078927A priority Critical patent/KR101103058B1/ko
Publication of KR20110021249A publication Critical patent/KR20110021249A/ko
Application granted granted Critical
Publication of KR101103058B1 publication Critical patent/KR101103058B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

컴퓨터 시스템에서, 영상표시유닛이 스크린 등을 통해 영상을 표시할 때, 적어도 두 개의 적외선 발광소자는 적외선을 발생하여 스크린의 적어도 두 개의 지점을 각각 포인팅한다. 스크린 앞측에 위치한 적어도 두 개의 적외선 센서는 적외선 발광소자들의 움직임을 감지하고, 감지된 신호를 제어유닛으로 전송한다. 제어유닛은 감지 신호를 수신하여 적외선 발광소자들 각각의 3차원 위치 정보를 산출하고, 3차원 위치 정보를 이용하여 영상표시유닛의 동작을 제어한다. 따라서, 멀티 터치가 가능하고, 3차원 포인팅 방식을 지원하는 컴퓨터 시스템을 제공할 수 있다.

Description

컴퓨터 시스템 및 이의 구동방법{COMPUTER SYSTEM AND METHOD OF DRIVING THE SAME}
본 발명은 컴퓨터 시스템 및 이의 구동방법에 관한 것으로, 더욱 상세하게는 멀티 터치 기능을 갖는 컴퓨터 시스템 및 이의 구동방법에 관한 것이다.
일반적으로 컴퓨터를 이용할 때 입력장치로써 마우스 및 키보드 등을 사용한다. 그러나, 마우스나 키보드의 경우 휴대성이 용이하지 못하여 최근에는 터치스크린 기능을 지원하는 디스플레이 장치들이 등장하고 있다.
종래의 터치스크린 디스플레이 장치에서는 마우스 포인터 대신에 사용자의 손가락 또는 포인팅 디바이스를 사용한다. 구체적으로, 이러한 장치는 표시패널의 전면에 터치센서가 장착되어 손가락 또는 포인팅 디바이스를 이용한 터치 동작을 인식한다. 상기한 터치센서에는 열을 감지하는 센서, 소리를 감지하는 센서, 압력을 감지하는 센서 등이 이용되고 있다.
그러나 이러한 터치 방식에는 표시장치의 사이즈가 증가할수록 터치스크린의 크기도 비례적으로 증가하여 사람의 손가락 또는 포인팅 디바이스로 스크린의 위쪽을 터치하는데 어려움이 있다.
또한, 기존의 터치스크린 방식은 사람의 손의 접촉에 의해서 이루어지므로, 2차원 평면을 포인팅한다는 한계가 있다.
따라서, 본 발명의 목적은 3차원 포인팅을 지원할 수 있고, 멀티 터치 기능을 구현할 수 있는 컴퓨터 시스템을 제공하는 것이다.
본 발명의 다른 목적은 상기한 컴퓨터 시스템을 구동하는데 적용되는 방법을 제공하는 것이다.
본 발명에 따른 컴퓨터 시스템은 영상을 표시하는 영상표시유닛, 적외선을 발생하여 상기 영상의 두 개 이상의 지점을 각각 포인팅하는 두 개 이상의 적외선 발광소자, 상기 적외선 발광소자들의 움직임을 감지하는 두 개 이상의 적외선 센서, 및 상기 적외선 센서들로부터 감지된 신호를 근거로 하여 상기 적외선 발광소자의 3차원 위치 정보를 산출하고, 상기 3차원 위치 정보를 이용하여 상기 영상표시유닛의 동작을 제어하는 제어유닛을 포함한다.
본 발명에 따른 컴퓨터 시스템의 구동방법은, 영상표시유닛을 통해 영상을 표시하는 단계, 적어도 두 개의 적외선 발광소자를 이용하여 상기 영상의 적어도 두 개의 지점들을 포인팅하는 단계, 적어도 두 개의 적외선 센서를 이용하여 상기 적외선 발광소자의 움직임을 센싱하는 단계, 센싱된 신호를 근거로 상기 적외선 발광소자들의 3차원 위치 정보를 생성하는 단계, 및 생성된 3차원 위치 정보를 근거로 하여 상기 영상표시유닛의 동작을 제어하는 단계를 포함한다.
이와 같은 컴퓨터 시스템 및 이의 구동방법에 따르면, 스크린을 직접 접촉하지 않고, 적외선 발광소자들을 이용하여 스크린의 적어도 두 개 지점을 포인팅함으로써 멀티 터치가 가능하다.
또한, 적어도 두 개의 센서를 이용하여 적외선 발광소자의 움직임을 감지함으로써 상기 적외선 발광소자의 3차원 위치 정보를 생성할 수 있고, 그 결과 3차원 포인팅 방식을 지원할 수 있다.
이하, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.
도 1은 본 발명의 일 실시예에 따른 컴퓨터 시스템의 블럭도이다.
도 1을 참조하면, 컴퓨터 시스템(100)은 영상표시유닛(110), 적외선 발광유닛(120), 적외선 센싱유닛(130) 및 제어유닛(140)을 포함한다.
상기 영상표시유닛(110)은 외부로부터 영상 정보를 입력받아 영상을 표시하는 장치로써, 컴퓨터의 모니터, 노트북, 또는 TV 등에 적용될 수 있다. 또한, 상기 영상표시유닛(110)은 액정표시장치, 플라즈마 표시장치, 유기 발광 다이오드 표시장치 중 어느 하나로 이루어질 수 있다.
본 발명의 일 실시예에 따르면, 상기 영상표시유닛(110)은 컴퓨터에 연결되어 상기 컴퓨터에 표시되는 영상을 빔 형태로 출력하는 빔프로젝터 및 상기 빔프로젝터로부터 빔 영상을 공급받아 표시하는 스크린을 포함할 수 있다.
상기 적외선 발광유닛(120)은 적외선을 발생하는 다수의 적외선 발광소자를 구비할 수 있다. 본 발명의 일 실시예로, 상기 적외선 발광소자들 각각은 발광 다이오드로 이루어질 수 있다. 사용자는 상기 적외선 발광소자들을 이용하여 상기 스크린에 표시되는 영상의 적어도 두 개의 지점을 포인팅할 수 있다.
상기 적외선 센싱유닛(130)은 적어도 두 개의 적외선 센서를 포함한다. 상기 적외선 센서들 각각은 적외선 카메라로 이루어져 상기 적외선 발광소자들을 촬영할 수 있다. 각각의 센서에 의해 촬영된 영상들은 상기 제어 유닛(140)으로 전송되고, 상기 제어 유닛(140)은 상기 촬영된 영상들을 이용하여 상기 적외선 발광소자들 각각의 위치 정보를 추출한다. 상기 제어 유닛(140)은 적어도 두 개의 영상을 이용하여 상기 적외선 발광소자들 각각의 3차원 위치 정보를 추출할 수 있다.
상기 제어 유닛(140)은 추출된 상기 3차원 위치 정보를 상기 영상표시유닛(110)에 표시되는 상기 영상에 매칭시켜 상기 영상표시유닛(110)의 동작을 제어할 수 있다.
도 2는 도 1에 도시된 컴퓨터 시스템의 개념도이고, 도 3은 도 2에 도시된 장갑을 나타낸 평면도이다.
도 2를 참조하면, 컴퓨터 시스템(100)의 영상표시유닛(110)은 빔프로젝터(111) 및 스크린(112)을 포함한다. 상기 빔프로젝터(111)는 컴퓨터의 화면에 표시되는 영상을 빔 형태로 스크린에 출력하고, 상기 스크린(112)은 상기 빔프로젝터(111)로부터 제공된 빔 영상을 사용자에게 표시한다.
적외선 발광유닛(120, 도 1에 도시됨)은 상기 스크린(112)으로부터 소정 거리 이격되어 위치하고, 상기 스크린(112) 측에 적외선을 조사하여 상기 스크 린(112)을 통해 표시되는 영상의 특정 지점을 포인팅하는 다수의 적외선 발광소자(121)를 포함한다. 본 발명의 일 예로, 상기 다수의 적외선 발광소자(121) 각각은 발광 다이오드(Light Emitting Diode: LED)로 이루어질 수 있다.
또한, 상기 컴퓨터 시스템(100)은 사용자가 손에 각각 착용할 수 있는 장갑(123)을 더 구비할 수 있다. 도 2에 도시된 바와 같이, 상기 다수의 적외선 발광소자(121)는 상기 장갑(123)의 손가락 끝 지점에 장착될 수 있다. 따라서, 사용자가 상기 장갑(123)을 착용하여 원하는 지점을 가르키는 동작을 통해서 상기 적외선을 상기 원하는 지점에 공급할 수 있다.
또한, 멀티 터치 구현시 사용자는 적어도 두 개의 손가락을 사용하여 원하는 적어도 두 개의 지점을 포인팅할 수 있다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에서는 사용자가 양손을 사용하여 상기 스크린(112)의 영상을 포인팅할 수 있도록 두 개의 장갑(123)에 각각 상기 적외선 발광소자들(121)이 장착된 구조를 제시하였다.
한편, 상기 적외선 발광소자들(121)은 서로 다른 주파수 영역을 갖는 적외선을 발생하거나 또는 서로 다른 세기를 갖는 적외선을 발생할 수도 있다. 예를 들어, 상기 장갑(123)의 5개 손가락에 서로 다른 세기를 갖는 적외선을 출력하는 적외선 발광소자들이 각각 장착되면, 5개의 손가락으로부터 출력된 적외선을 구별하기가 용이할 수 있다. 각 손가락에서 출력되는 적외선의 세기를 다르게 하는 것은, 발광소자로부터 출력되는 적외선의 세기를 다르게 하거나, 각 손가락에 장착되는 발광소자의 개수를 다르게 함으로써 구현할 수 있다.
본 발명의 일 실시예로 상기 다수의 적외선 발광소자(121)가 상기 장갑(123)에 장착되는 구조를 제시하였으나, 상기 다수의 적외선 발광소자(121)는 장갑(123) 이외에도 사용자의 손가락에 착용하는 반지 등에 장착되거나 또는 리모콘 등에 장착될 수도 있다.
상기 적외선 센싱유닛(130)은 제1 및 제2 적외선 센서(131, 132)를 구비한다. 상기 제1 및 제2 적외선 센서(131, 132)는 상기 스크린(112)의 앞측에서 상기 사용자가 위치하는 곳을 향하도록 배치되어 상기 다수의 적외선 발광소자(121)를 촬영한다. 따라서, 상기 제1 및 제2 적외선 센서(131, 132)는 상기 사용자의 손에 위치하는 상기 다수의 적외선 발광소자(121) 각각의 위치를 용이하게 파악할 수 있다.
한편, 도 1에서는 상기 제1 및 제2 적외선 센서(131, 132)는 상기 빔프로젝터(111)와 별도 구성요소로써 분리된 구조를 제시하였으나, 상기 제1 및 제2 적외선 센서(131, 132)는 상기 빔프로젝터(111)에 내장될 수도 있다.
상기 제1 및 제2 적외선 센서(131, 132) 각각으로부터 촬영된 영상은 상기 제어유닛(140, 도 1에 도시됨)으로 제공된다. 본 발명의 일 예로, 상기 제1 및 제2 적외선 센서(131, 132)는 촬영된 영상에 대한 정보를 무선 통신 방식(블루투스, RF 방식 등)으로 상기 제어유닛(140) 측으로 전송할 수 있다.
예를 들어, 사용자가 4개의 적외선 발광소자를 이용하여 상기 스크린(112)의 4개 지점을 포인팅하는 경우, 상기 제1 적외선 센서(131)는 동작하는 상기 4개의 적외선 발광소자를 촬영한 제1 영상을 상기 제어유닛(140)으로 전송하고, 상기 제2 적외선 센서(132)는 동작하는 상기 4개의 적외선 발광소자를 촬영한 제2 영상을 상기 제어유닛(140)으로 전송한다.
상기 제어유닛(140)은 상기 제1 영상에 근거하여 상기 4개의 적외선 발광소자 각각의 제1 2차원 위치 정보를 생성하고, 상기 제2 영상에 근거하여 상기 4개의 적외전 발광소자 각각의 제2 2차원 위치 정보를 생성한다. 또한, 상기 제어유닛(140)은 상기 제1 및 제2 2차원 위치 정보를 근거로하여 z축 좌표값을 산출함으로써 상기 4개의 적외선 발광 소자 각각의 3차원 위치 정보를 생성할 수 있다.
상기 3차원 위치정보를 생성하는 과정에 대해서는 이후 도면을 참조하여 구체적으로 설명하기로 한다.
상기 제어유닛(140)은 상기 3차원 위치정보를 근거로 하여 포인팅된 위치에 해당하는 기능들에 대한 정보를 획득하고, 획득된 정보를 컴퓨터의 다른 입력장치(예를 들어, 마우스 등)의 정보와 동기시켜 상기 포인팅된 위치에 대응하는 기능을 처리할 수 있다. 상기 제어유닛(140)에 의해서 처리된 결과는 상기 영상표시유닛(110)을 통해 사용자에게 표시될 수 있다.
본 발명의 다른 실시예로, 상기 영상표시유닛(110)은 IPTV(Internet Protocol Television) 등으로 이루어질 수 있다. 이 경우, 상기 적외선 발광소자들(121)은 IPTV의 리모콘에 장착될 수 있다.
도 4는 도 1에 도시된 컴퓨터 시스템의 동작 흐름도이다. 단, 도 4에서는 마우스나 키보드 등과 같은 유선형 입력장치 이외에 무선형 입력장치로서 적외선 발광소자를 이용하는 컴퓨터 시스템의 동작 과정을 나타낸다.
도 4를 참조하면, 먼저 다수의 적외선 발광소자(121)를 이용하여 영상표시유닛(110)에서 표시되는 영상을 포인팅한다(S210).
다음, 제1 및 제2 적외선 센서(131, 132)를 이용하여 가동중인 상기 다수의 적외선 발광소자(121)를 촬영하고, 촬영된 영상에 대한 정보를 제어유닛(140) 측으로 전송한다(S220).
상기 제어유닛(140)은 상기 촬영된 영상정보를 이용하여 상기 적외선 발광소자들(121) 각각의 3차원 위치 정보를 생성한다(S230).
이후, 상기 제어유닛(140)은 상기 3차원 위치 정보를 근거로하여 멀치터치 연산을 수행한다(S240). 멀티터치 연산 결과에 따라서 각 위치에 해당하는 기능들을 수행하고, 수행한 결과를 상기 영상표시유닛(110)에 표시한다(S250).
도 5는 도 4에 도시된 3차원 위치 정보를 산출하는 과정을 나타낸 흐름도이고, 도 6a 및 도 6b는 도 5에 도시된 3차원 위치 정보 산출 과정을 설명하기 위한 도면이다.
도 5 및 도 6a을 참조하면, 상기 제어유닛(140)은 상기 제1 및 제2 적외선 센서(C1, C2)를 통해 촬영된 영상에서 상기 적외선 발광소자들(121) 각각에 대한 2차원 좌표값들을 추출한다. 특히, 상기 제어유닛(140)은 상기 제1 적외선 센서(C1)의 제1 영상으로부터 각 적외선 발광소자들(예를 들어, 제1 적외선 발광소자)의 제1 좌표값(P1)을 추출하고(S231), 제2 적외선 센서(C2)의 제2 영상으로부터 상기 제1 적외선 발광소자의 제2 좌표값(P2)을 추출한다(S232).
그러나, 도 6a에 도시된 바와 같이, 상기 제1 및 제2 적외선 센서(C1, C2)를 동일한 위치에 배치시킬 수 없으므로, 두 센서 사이에 소정의 간격이 발생한다. 따라서, 상기 제1 및 제2 적외선 센서(131, 132)가 상기 제1 적외선 발광소자를 똑같이 촬영하더라도, 상기 제1 영상에서의 상기 제1 적외선 발광소자의 제1 좌표값(P1)은 상기 제2 영상에서의 상기 제1 적외선 발광소자의 제2 좌표값(P2)과 서로 다르게 나타난다.
도 6b를 참조하면, 기 설정된 특정 좌표값(Pr)을 기준으로 했을 때, 상기 특정 좌표값(Pr)과 상기 제1 좌표값(P1)의 제1 거리(d1)는 상기 특정 좌표값(Pr)과 상기 제2 좌표값(P2)의 제2 거리(d2)와 다르게 나타난다. 상기 제1 및 제2 거리(d1, d2) 차이를 이용하여 상기 제1 적외선 발광소자의 z축 좌표값(즉, 상기 제1 적외선 발광소자와 적외선 센서와의 상대적인 거리)을 산출할 수 있다(S233).
따라서, z축 좌표값은 아래의 수학식 1을 만족한다.
Figure 112009052142681-PAT00001
여기서, b는 제1 및 제2 적외선 센서(C1, C2) 사이의 거리로 정의되며, f는 상기 제1 및 제2 적외선 센서(C1, C2) 각각에 구비된 렌즈의 초점 거리로 정의된다.
이후, 제1 및 제2 좌표값(P1, P2)을 정합하여 하나의 2차원 좌표값을 생성하고, 상기 2차원 좌표값에 상기 z축 좌표값을 추가하여 상기 제1 적외선 발광 소자의 3차원좌표값을 생성한다(S234).
이와 같이, 생성된 좌표값들 중 서로 근접하여 위치하는 좌표값들을 군집화 하여 다수의 군집을 형성한다(S235). 다음, 각 군집의 중점을 계산한다(S236). 계산에 의해 산출된 각 군집의 중점은 단계(S240)로 전송된다.
도 7은 도 4에 도시된 멀티 터치 연산 과정을 나타낸 흐름도이다. 단, 도 7에서는 2개의 터치 동작이 일어난 경우를 예로 들어 설명한다. 도 7에서, 제1 군집은 제1 터치 동작이 발생한 지점(즉, 제1 포인팅 지점)에 해당하며, 제2 군집은 제2 터치 동작이 발생한 지점(즉, 제2 포인팅 지점)에 해당한다.
도 7을 참조하면, 상기 제1 터치 동작을 처리하기 위하여, 상기 제1 군집의 중점에 해당하는 창(window)를 검출한다(S241). 검출된 해당 창의 정보를 획득하고(S242), 획득된 정보를 마우스(mouse) 정보와 동기화시켜 해당 창의 기능을 수행한다(S243).
한편, 상기 제2 터치 동작을 처리하기 위하여 상기 제2 군집의 중점에 해당하는 창을 검출한다(S244). 다음 검출된 해당 창의 정보를 획득하고(S245), 획득된 정보를 마우스 정보와 동기화시켜 해당 창의 기능을 수행한다(S246).
단계 S260에서는 기능을 수행한 결과를 상기 영상표시유닛(110)에 표시한다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 컴퓨터 시스템의 블럭도이다.
도 2는 도 1에 도시된 컴퓨터 시스템의 개념도이다.
도 3은 도 1에 도시된 장갑을 나타낸 도면이다.
도 4는 도 1에 도시된 컴퓨터 시스템의 동작 흐름도이다.
도 5는 도 3에 도시된 3차원 위치 정보를 산출하는 과정을 나타낸 흐름도이다.
도 6a 및 도 6b는 도 4에 도시된 3차원 위치 정보 산출 과정을 설명하기 위한 도면이다.
도 7은 도 4에 도시된 멀티 터치 연산 과정을 나타낸 흐름도이다.
*도면의 주요 부분에 대한 부호의 설명*
100 : 컴퓨터 시스템 110 : 영상표시유닛
111 : 빔프로젝트 112 : 스크린
120 : 적외선 발광유닛 121 : 적외선 발광소자
130 : 적외선 센싱유닛 131, 132 : 제1 및 제2 적외선 센서
140 : 제어유닛 123 : 장갑

Claims (10)

  1. 영상을 표시하는 영상표시유닛;
    적외선을 발생하여 상기 영상의 두 개 이상의 지점을 각각 포인팅하는 두 개 이상의 적외선 발광소자;
    상기 적외선 발광소자들의 움직임을 감지하는 두 개 이상의 적외선 센서; 및
    상기 적외선 센서들로부터 감지된 신호를 근거로 하여 상기 적외선 발광소자의 3차원 위치 정보를 산출하고, 상기 3차원 위치 정보를 이용하여 상기 영상표시유닛의 동작을 제어하는 제어유닛을 포함하는 것을 특징으로 하는 컴퓨터 시스템.
  2. 제1항에 있어서, 상기 적외선 발광소자는 발광 다이오드인 것을 특징으로 하는 컴퓨터 시스템.
  3. 제2항에 있어서, 사용자가 착용 가능한 장갑을 더 포함하고,
    상기 적외선 발광소자들 각각은 상기 장갑의 손가락 끝 지점에 장착되는 것을 특징으로 하는 컴퓨터 시스템.
  4. 제2항에 있어서, 상기 적외선 발광소자들 각각은 서로 다른 주파수 또는 서로 다른 세기를 갖는 적외선을 발생하는 것을 특징으로 하는 컴퓨터 시스템.
  5. 제1항에 있어서, 상기 제어유닛은,
    상기 두 개 이상의 적외선 센서 중 제1 적외선 센서로부터 감지된 제1 좌표값 및 나머지 제2 적외선 센서로부터 감지된 제2 좌표값을 이용하여 각 적외선 발광소자의 z축 좌표값을 생성하고,
    상기 제1 좌표값 및 제2 좌표값을 정합하여 정합된 2차원 좌표값에 상기 z축 좌표값을 추가하여 상기 3차원 위치 정보를 생성하는 것을 특징으로 하는 컴퓨터 시스템.
  6. 제1항에 있어서, 상기 적외선 센서들은 상기 적외선 발광소자들을 촬영하는 카메라로 이루어지고,
    상기 적외선 센서들을 통해 촬영된 영상 정보는 무선 통신 방식을 통해 상기 제어유닛으로 전송하는 것을 특징으로 하는 컴퓨터 시스템.
  7. 제1항에 있어서, 상기 영상표시모듈은,
    영상을 빔 형태로 출력하는 프로젝터; 및
    상기 프로젝터로부터 상기 빔 영상을 공급받아 표시하는 스크린을 포함하는 것을 특징으로 하는 컴퓨터 시스템.
  8. 영상표시유닛을 통해 영상을 표시하는 단계;
    적어도 두 개의 적외선 발광소자를 이용하여 상기 영상의 적어도 두 개의 지 점들을 포인팅하는 단계;
    적어도 두 개의 적외선 센서를 이용하여 상기 적외선 발광소자의 움직임을 센싱하는 단계;
    센싱된 신호를 근거로 상기 적외선 발광소자들의 3차원 위치 정보를 생성하는 단계; 및
    생성된 3차원 위치 정보를 근거로 하여 상기 영상표시유닛의 동작을 제어하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 시스템의 구동방법.
  9. 제8항에 있어서, 상기 3차원 위치 정보를 생성하는 단계는,
    상기 두 개 이상의 적외선 센서 중 제1 적외선 센서로부터 감지된 해당 적외선 발광소자의 제1 좌표값을 생성하는 단계;
    나머지 제2 적외선 센서로부터 감지된 상기 해당 적외선 발광소자의 제2 좌표값을 생성하는 단계;
    상기 제1 및 제2 좌표값을 이용하여 상기 해당 적외선 발광소자의 z축 좌표값을 생성하는 단계;
    상기 제1 좌표값 및 제2 좌표값을 정합하는 단계; 및
    정합된 2차원 좌표값에 상기 z축 좌표값을 추가하여 상기 3차원 위치 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 시스템의 구동방법.
  10. 제8항에 있어서, 상기 적외선 발광소자들의 움직임을 센싱하는 단계는,
    상기 적외선 센서들을 통해 상기 적외선 발광소자들을 촬영하는 단계; 및
    촬영된 영상에 대한 정보를 무선 통신 방식을 통해 전송하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 시스템의 구동방법.
KR1020090078927A 2009-08-25 2009-08-25 컴퓨터 시스템 및 이의 구동방법 KR101103058B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090078927A KR101103058B1 (ko) 2009-08-25 2009-08-25 컴퓨터 시스템 및 이의 구동방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090078927A KR101103058B1 (ko) 2009-08-25 2009-08-25 컴퓨터 시스템 및 이의 구동방법

Publications (2)

Publication Number Publication Date
KR20110021249A true KR20110021249A (ko) 2011-03-04
KR101103058B1 KR101103058B1 (ko) 2012-01-05

Family

ID=43930174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090078927A KR101103058B1 (ko) 2009-08-25 2009-08-25 컴퓨터 시스템 및 이의 구동방법

Country Status (1)

Country Link
KR (1) KR101103058B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9557190B2 (en) 2012-03-26 2017-01-31 Samsung Electronics Co., Ltd. Calibration apparatus and method for 3D position/direction estimation system
KR20170052247A (ko) * 2015-11-04 2017-05-12 전자부품연구원 차량용 비접촉식 스크린 패드
US10197395B2 (en) 2012-02-29 2019-02-05 Samsung Electronics Co., Ltd. System, apparatus, and method for estimating three-dimensional (3D) position and direction precisely
KR20240026352A (ko) 2022-08-18 2024-02-28 산수음료(주) 향상된 투명성 및 기계적 특성을 갖는 생분해성 수지 조성물 및 그 제조방법
KR20240026530A (ko) 2022-08-18 2024-02-29 산수음료(주) 향상된 열 수축성을 갖는 생분해성 수지 조성물 및 그 제조방법
KR20240026529A (ko) 2022-08-18 2024-02-29 산수음료(주) 향상된 기계적 특성을 갖는 생분해성 수지 조성물 및 그 제조방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101321274B1 (ko) 2012-05-29 2013-11-08 주식회사 브이터치 두대의 카메라와 광원을 이용한 포인터를 사용하지 않는 가상 터치 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970060989A (ko) * 1996-01-17 1997-08-12 구자홍 3차원 무선포인팅 장치
KR100819026B1 (ko) 2005-12-10 2008-04-02 한국전자통신연구원 화면 상의 커서 제어 장치 및 방법
KR100856573B1 (ko) 2006-12-27 2008-09-04 주식회사 엠씨넥스 원격 포인팅 장치와 그 장치에서의 포인터 이동량 산출방법
KR100907104B1 (ko) * 2007-11-09 2009-07-09 광주과학기술원 포인팅 지점 산출 방법 및 장치, 그리고 상기 장치를포함하는 원격 협업 시스템

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10197395B2 (en) 2012-02-29 2019-02-05 Samsung Electronics Co., Ltd. System, apparatus, and method for estimating three-dimensional (3D) position and direction precisely
US9557190B2 (en) 2012-03-26 2017-01-31 Samsung Electronics Co., Ltd. Calibration apparatus and method for 3D position/direction estimation system
KR20170052247A (ko) * 2015-11-04 2017-05-12 전자부품연구원 차량용 비접촉식 스크린 패드
KR20240026352A (ko) 2022-08-18 2024-02-28 산수음료(주) 향상된 투명성 및 기계적 특성을 갖는 생분해성 수지 조성물 및 그 제조방법
KR20240026530A (ko) 2022-08-18 2024-02-29 산수음료(주) 향상된 열 수축성을 갖는 생분해성 수지 조성물 및 그 제조방법
KR20240026529A (ko) 2022-08-18 2024-02-29 산수음료(주) 향상된 기계적 특성을 갖는 생분해성 수지 조성물 및 그 제조방법

Also Published As

Publication number Publication date
KR101103058B1 (ko) 2012-01-05

Similar Documents

Publication Publication Date Title
KR101103058B1 (ko) 컴퓨터 시스템 및 이의 구동방법
KR100714722B1 (ko) 광원의 신호를 사용하여 포인팅 사용자 인터페이스를구현하는 장치 및 방법
KR101284797B1 (ko) 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
EP2733585B1 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
TWI540461B (zh) 手勢輸入的方法及系統
US20130257736A1 (en) Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method
KR101533319B1 (ko) 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
KR20110063075A (ko) 제스처 입력 장치 및 이를 이용한 제스처 인식 방법 및 장치
KR20090061179A (ko) 데이터 입력 장치 및 이를 이용한 데이터 처리 방법
US20120092332A1 (en) Input device, input control system, method of processing information, and program
US20160139762A1 (en) Aligning gaze and pointing directions
JP2011133955A (ja) 映像再生装置及び映像再生方法
KR101019255B1 (ko) 깊이 센서 방식의 공간 터치 무선단말기, 이의 데이터 처리방법 및 스크린장치
JP2009129021A (ja) 情報入力システムおよび情報入力方法
US9489077B2 (en) Optical touch panel system, optical sensing module, and operation method thereof
KR20160072306A (ko) 스마트 펜 기반의 콘텐츠 증강 방법 및 시스템
US20160291715A1 (en) Curved display apparatus providing air touch input function
TWI493382B (zh) 懸浮及點擊手勢偵測裝置
Colaço Sensor design and interaction techniques for gestural input to smart glasses and mobile devices
JP2016115310A (ja) 電子機器
JP2010009311A (ja) ユーザインタフェイス装置
TW201430616A (zh) 懸浮及點擊手勢偵測裝置
JP6068741B2 (ja) 表示システム
TWI697827B (zh) 控制系統及其控制方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141230

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee