KR20050102803A - 가상입력장치, 시스템 및 방법 - Google Patents

가상입력장치, 시스템 및 방법 Download PDF

Info

Publication number
KR20050102803A
KR20050102803A KR1020040028078A KR20040028078A KR20050102803A KR 20050102803 A KR20050102803 A KR 20050102803A KR 1020040028078 A KR1020040028078 A KR 1020040028078A KR 20040028078 A KR20040028078 A KR 20040028078A KR 20050102803 A KR20050102803 A KR 20050102803A
Authority
KR
South Korea
Prior art keywords
bending
hand
movement
amount
virtual
Prior art date
Application number
KR1020040028078A
Other languages
English (en)
Inventor
이동석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040028078A priority Critical patent/KR20050102803A/ko
Priority to US11/060,397 priority patent/US20050237296A1/en
Publication of KR20050102803A publication Critical patent/KR20050102803A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상입력장치, 시스템 및 방법이 제공된다. 본 가상입력장치는, 실제 손의 이동량을 감지하는 이동감지부, 실제 손의 손가락의 구부림량을 감지하고, 호스트장치로부터 제어신호를 수신하면 손가락의 구부림을 제한하는 구부림 감지/제한부 및 감지된 이동량 및 구부림량을 호스트장치로 전송하고, 호스트장치가 이동량, 구부림량 및 소정의 3차원 형상에 대한 정보를 이용하여 생성한 제어신호를 수신하여 구부림 감지/제한부로 전달하는 통신 인터페이스부를 포함한다. 이에 의해, 제품의 실물모형을 제작하지 않아도 그 제품의 그립감을 가상으로 느낄 수 있게 된다. 따라서, 실물모형의 제작에 따른 비용과 시간소요를 방지할 수 있게 된다.

Description

가상입력장치, 시스템 및 방법{Apparatus, system and method for virtual user interface}
본 발명은 가상입력장치, 시스템 및 방법에 관한 것으로, 더욱 상세하게는 가상의 3차원 형상에 대한 그립(grip)감을 가상으로 느끼게 하는 가상입력장치, 시스템 및 방법에 관한 것이다.
캠코더, 카메라, 이동전화 등과 같은 모바일제품은 사용자가 손에 쥐고 사용하기 때문에, 사용자가 손에 쥐었을 때의 느낌인 그립감이 편하고 자연스러워야 한다. 그립감이 불편한 제품은 사용자로 하여금 손의 피로감을 쉽게 느끼게 하고 조작이 불편하기 때문에, 그 성능이 우수하더라도 시장에서 외면될 수 있기 때문이다.
모바일제품의 그립감은 입체적으로 그려진 형상을 통해 어느 정도 예측할 수는 있다. 그러나, 이에 의해 사람이 실물에 대해 실제로 느끼는 그립감을 정확하게 예측하는 것은 불가능하다.
따라서, 그립감을 정확히 조사하기 위해, 모바일제품의 개발단계에서는 외관의 디자인 구상이 완료되면, 이를 화학나무(Chemical Wood) 등을 이용하여 실물모형(Mock Up)을 제작한다. 그리고, 제작된 실물모형을 직접 손에 쥐고 그립감을 조사하고, 손가락으로 외관에 마련된 조작버튼들을 조작함에 있어서 불편은 없는지 등을 확인한다.
그러나, 모바일제품의 실물모형을 제작함에 있어서는, 많은 비용과 시간이 소요된다. 그리고, 모바일제품의 형상이 복잡한 경우에는 소요시간과 비용이 더욱 증가하게 된다.
또한, 실물모형은 제작이 완료된 후에는 그 형상을 수정할 수 없다. 따라서, 제작된 실물모형의 그립감이 불편하거나, 조작버튼의 위치가 부적절한 것으로 판단된 경우에는, 이러한 디자인적 결함이 보완된 실물모형을 다시 제작하여야 한다. 이는 비용과 시간을 요하게 된다.
그리고, 모바일제품의 외관은 개발단계에서 변경되거나 수정될 수 있다. 또한, 외관에 마련되는 조작버튼 역시 개발단계에서 추가되거나 위치가 변경될 수 있다. 이때마다 실물모형을 다시 제작한다면, 막대한 비용과 시간 소요를 초래하게 되는 문제점이 발생한다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 실제 손의 움직임과 구부림을 감지하여 화면상에 가상의 손을 표시하고, 표시된 가상의 손이 화면상에 표시된 가상의 3차원 형상에 닿는 경우에는 실제 손의 구부림을 제한하여 그립감을 가상으로 느끼게 하는 가상입력장치, 시스템 및 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명에 따른, 가상입력장치는, 실제 손의 이동량을 감지하는 이동감지부; 상기 실제 손의 손가락의 구부림량을 감지하고, 호스트장치로부터 제어신호를 수신하면 상기 손가락의 구부림을 제한하는 구부림 감지/제한부; 및 감지된 상기 이동량 및 상기 구부림량을 상기 호스트장치로 전송하고, 상기 호스트장치가 상기 이동량, 상기 구부림량 및 소정의 3차원 형상에 대한 정보를 이용하여 생성한 상기 제어신호를 수신하여 상기 구부림 감지/제한부로 전달하는 통신 인터페이스부;를 포함한다.
또한, 상기 제어신호는 상기 호스트장치의 화면상에 표시되는 상기 가상의 손이 상기 호스트장치의 화면상에 표시되는 상기 소정의 3차원 형상에 닿은 것으로 판단되면 생성되는 것이 바람직하다.
그리고, 상기 구부림 감지/제한부는, 상기 손가락의 구부림동작에 따라 연동하여 회전하는 모터부; 상기 모터부의 회전각을 감지함으로서, 상기 손가락의 구부림량을 감지하는 회전각 감지부; 및 상기 호스트장치로부터 상기 제어신호를 수신하면, 상기 모터부의 회전을 제한함으로서, 상기 손가락의 구부림을 제한하는 회전제한부;를 포함할 수 있다.
또한, 상기 이동감지부는, 각속도센서를 이용하여 상기 실제 손의 공간상의 이동량을 감지할 수 있다.
한편, 본 발명에 따른, 가상입력시스템은, 실제 손의 움직임량을 감지하고, 외부로부터 입력되는 제어신호에 따라 상기 실제 손의 움직임을 제한하는 가상입력장치; 및 상기 움직임량에 기초하여 상기 실제 손에 대응되는 가상의 손을 화면상에 표시하고, 상기 움직임량 및 소정의 3차원 형상에 대한 정보에 기초하여 생성한 상기 제어신호를 가상입력장치로 전송하는 호스트장치;를 포함한다.
그리고, 상기 가상입력장치는, 상기 실제 손의 이동량을 감지하는 이동감지부; 및 상기 실제 손의 손가락의 구부림량을 감지하고, 상기 호스트장치로부터 상기 제어신호를 수신하면 상기 손가락의 구부림을 제한하는 구부림 감지/제한부;를 포함하는 것이 바람직하다.
또한, 상기 구부림 감지/제한부는, 상기 손가락의 구부림동작에 따라 연동하여 회전하는 모터부; 상기 모터부의 회전각을 감지함으로서, 상기 손가락의 구부림량을 감지하는 회전각 감지부; 및 상기 호스트장치로부터 상기 제어신호를 수신하면, 상기 모터부의 회전을 제한함으로서, 상기 손가락의 구부림을 제한하는 회전제한부;를 포함할 수 있다.
그리고, 상기 호스트장치는, 상기 화면상에 표시되는 상기 가상의 손이 상기 화면상에 표시되는 상기 소정의 3차원 형상에 닿은 것으로 판단되면 상기 제어신호를 생성되는 것이 바람직하다.
또한, 상기 호스트장치는, 가상의 손가락의 가상공간상 좌표값과 상기 소정의 3차원 형상에 대한 격자의 상기 가상공간상 좌표값이 일치하는 경우에 상기 가상의 손가락이 상기 소정의 3차원 형상 에 닿은 것으로 판단할 수 있다.
한편, 본 발명에 따른, 가상입력방법, a) 소정의 3차원 형상을 화면상에 표시하는 단계; b) 실제 손의 움직임량을 감지하는 단계; c) 상기 움직임량에 기초하여 상기 실제 손에 대응되는 가상의 손을 상기 화면상에 표시하는 단계; 및 d) 상기 움직임량 및 상기 소정의 3차원 형상에 대한 정보에 기초하여 상기 실제 손의 움직임을 제한하는 단계;를 포함한다.
그리고, 상기 b) 단계는, 상기 실제 손의 이동량을 감지하는 단계; 및 상기 실제 손의 손가락의 구부림량을 감지하는 단계;를 포함하는 것이 바람직하다.
또한, 상기 d) 단계는, 상기 화면상에 표시되는 상기 가상의 손이 상기 화면상에 표시되는 상기 소정의 3차원 형상에 닿은 것으로 판단되면 상기 실제 손의 움직임을 제한하는 것이 바람직하다.
그리고, 상기 d) 단계는, 가상의 손가락의 가상공간상 좌표값과 상기 소정의 3차원 형상에 대한 격자의 상기 가상공간상 좌표값이 일치하는 경우에 상기 가상의 손가락이 상기 소정의 3차원 형상에 닿은 것으로 판단할 수 있다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른, 가상입력시스템을 도시한 도면이다. 도 1을 참조하면, 가상입력시스템은 사용자 인터페이스장치인 가상입력장치(100)와 호스트장치인 PC(200)를 구비한다.
PC(200)는 가상입력장치(100)로부터 입력되는 데이터를 연산처리함으로서, 사용자의 실제 손의 움직임을 화면상에 그대로 반영한다. 또한, PC(200)는 사용자의 실제 손의 움직임을 제한하기 위한 제어신호를 가상입력장치(100)로 전송한다. PC(200)는 저장부(210), 표시부(220), 중앙처리부(230), 키입력부(240) 및 가상입력장치 인터페이스부(250)를 구비한다.
저장부(210)는 PC(200)에서 사용되는 데이터와 구동프로그램 및 응용프로그램 등이 저장되는 기록매체로서, 하드디스크 드라이브로 구현됨이 일반적이다. 저장부(210)에는 가상입력시스템 구현에 필요한 '3차원 격자생성 프로그램', '가상입력장치 제어용 프로그램', '3차원 격자들의 좌표값'이 저장된다.
'3차원 격자생성 프로그램'은 사용자에 의해 입력된 데이터를 이용하여 가상의 3차원 형상을 생성하고, 생성된 3차원 형상에 대한 3차원 격자를 생성하는 프로그램이다.
'가상입력장치 제어용 프로그램'는 가상입력장치(100)에서 입력되는 데이터를 이용하여, 사용자의 실제 손의 움직임을 화면상에 그대로 반영하고, 필요한 경우에는 사용자의 실제 손의 움직임을 제한하는 프로그램이다.
'3차원 격자들의 좌표값'은 '3차원 격자생성 프로그램'에 의해 생성된 3차원 격자들에 대한 좌표값이다.
표시부(220)는 3차원 형상과 가상의 손이 화면상에 표시되는 디스플레이장치로서, 모니터로 구현됨이 일반적이다. 그리고, 키입력부(240)는 사용자로부터 3차원 형상에 대한 데이터를 입력받아 중앙처리부(230)로 전달하는 사용자 인터페이스장치로서, 키보드로 구현됨이 일반적이다. 가상입력장치 인터페이스부(250)는 중앙처리부(230)의 제어에 의해, 가상입력장치(100)와 데이터 통신을 수행한다.
중앙처리부(230)는 키입력부(240)와 가상입력장치(100)에서 입력되는 데이터를 전달받고, 저장부(210)에 저장된 프로그램을 실행시켜 전달받은 데이터들을 연산처리한다. 중앙처리부(230)의 연산처리결과, 사용자가 입력한 3차원 형상과 가상의 손이 표시부(220)의 화면상에 표시된다. 또한, 중앙처리부(230)는 연산처리결과를 이용하여 사용자의 실제 손의 움직임을 제한하기 위한 제어신호를 가상입력장치 인터페이스부(250)를 통해 가상입력장치(100)로 전달한다.
이하에서는, 도 1에 도시된 가상입력장치(100)에 대해, 도 2를 참조하여 상세히 설명한다. 도 2를 참조하면, 가상입력장치(100)는 장갑(110), 이동 감지부(120), 복수의 구부림 감지/제한부(130) 및 PC 인터페이스부(140)를 구비한다.
사용자는 장갑(110)을 끼고 손을 이동시키거나 회전시킬 수 있고, 손가락을구부릴 수 있다. 그리고, PC 인터페이스부(140)는 PC(100)와 데이터 통신을 수행한다.
이동 감지부(120)는 장갑(110)의 어디에도 위치가능하다. 이동 감지부(120)는 장갑(110)의 움직임, 즉 사용자의 실제 손의 이동이나 회전을 감지하고, 감지된 움직임량(이동량, 회전량)을 PC 인터페이스부(140)를 통해 PC(200)로 전송한다. 이동 감지부(120)는 3축(X축, Y축, Z축)의 자이로센서(각속도센서)를 이용하여 사용자의 실제 손의 공간상 움직임을 감지도록 구현할 수 있다.
구부림 감지/제한부(130)는 장갑(110)의 손가락 관절부분에 위치한다. 한 손가락에는 관절이 3개 있으므로, 한 손에는 모두 15개의 관절이 있다. 따라서, 구부림 감지/제한부(130)도 손가락 관절수에 따라 15개(도 2에서는 검정색 블럭으로 표시됨.)가 마련되는 것이 바람직하다.
구부림 감지/제한부(130)는 사용자의 손가락 관절의 구부림을 감지하고, 손가락 관절의 구부림을 제한하기도 한다.
이하에서는, 구부림 감지/제한부(130)에 대해, 도 3을 참조하여 상세히 설명한다. 도 3을 참조하면, 구부림 감지/제한부(130)는 모터부(131), 회전각 감지부(133) 및 회전 제한부(135)를 구비한다.
모터부(131)는 사용자의 손가락 관절 구부림동작에 따라 연동하여 회전한다.
회전각 감지부(133)는 모터부(131)의 회전각을 감지한다. 모터부(131)의 회전각은 사용자의 손가락 관절 구부림량에 따라 결정되기 때문에, 회전각 감지부(133)에서 감지되는 회전각은 손가락 관절 구부림량에 해당한다. 감지된 회전각은 PC 인터페이스부(140)를 통해 PC(200)로 전송된다.
회전 제한부(135)는 PC 인터페이스부(140)를 통해 PC(200)로부터 구부림을 제한하기 위한 제어신호를 수신하면, 모터부(131)의 특정방향으로의 회전을 제한한다. 모터부(131)의 특정방향으로의 회전이 제한되면, 결과적으로 사용자는 그 방향으로 손가락 관절을 구부릴 수 없게 된다.
이하에서는, 도 1에 도시된 가상입력시스템의 동작과정에 대해, 도 4를 참조하여 상세히 설명한다. 도 4는 본 발명의 일 실시예에 따른, 가상입력방법의 설명에 제공되는 흐름도이다.
먼저, 사용자는 그립감을 조사하고 싶은 3차원 형상을 결정하고, 그 3차원 형상에 대한 데이터를 PC(200)에 입력한다(S410). 이때, 사용자의 입력조작은 키입력부(240)에 의하게 된다.
PC(200)는 입력된 데이터에 기초하여 3차원 형상을 생성하고(S420), 생성된 3차원 형상에 대해 3차원 격자들을 생성한다(S430). 구체적으로, 중앙처리부(230)가 저장부(210)에 저장된 '3차원 격자생성 프로그램'을 실행시키면, 그에 따라 3차원 형상에 대한 데이터를 연산처리함으로서 3차원 형상과 그에 대한 3차원 격자들이 생성된다. 3차원 격자들의 조밀도는 사용자에 의해 설정가능하다. 조밀도가 높아질수록 가상입력시스템의 성능은 우수해진다.
생성된 3차원 형상과 그에 대한 3차원 격자는 표시부(220)에 표시된다. 도 5a에는 표시부(220)에 표시되는 3차원 형상의 일 예로 캠코더를 도시하였다. 그리고, 도 5b에는 3차원 형상인 캠코더에 대해 생성한 3차원 격자들을 도시하였다. 도 5b에서 3차원 격자들은 각 선분들의 교차점들에 해당한다. 따라서, 3차원 격자들은 공간상의 좌표값으로 나타낼 수 있다.
3차원 격자 생성이 끝나면, PC(200)는 생성된 3차원 격자들의 좌표값을 저장부(210)에 저장한다(S440).
이와 같은 과정들에 의해, PC(200)는 사용자가 그립감을 조사하고 싶은 3차원 형상에 대한 연산처리를 마친 상태가 된다. 따라서, 이후에는 가상입력장치(100)를 통한 사용자의 실제 손의 움직임에 따라, 가상의 손을 3차원 형상과 같이 가상공간에 표시하여야 한다. 그리고, 사용자가 3차원 형상에 대한 그립감을 가상으로 느낄수 있도록 해주어야 한다.
이를 위해, 가상입력장치(100)는 사용자의 실제 손의 움직임량과 구부림량을 감지한다(S450). 구체적으로 이동 감지부(120)는 사용자의 실제 손의 움직임량(이동량, 회전량)을 감지하고, 감지된 움직임량을 PC 인터페이스부(140)를 통해 PC(200)로 전송한다.
그리고, 구부림 감지/제한부(130)는 사용자의 손가락 관절의 구부림량을 감지하고, 감지된 구부림량을 PC 인터페이스부(140)를 통해 PC(200)로 전송한다. 구체적으로, 구부림량이란 구부림 감지/제한부(130)의 회전각 감지부(133)가 감지하는 모터부(131)의 회전각에 해당한다. 전술한 바와 같이, 모터부(131)의 회전각은 사용자의 손가락 관절 구부림량에 따라 결정되기 때문이다.
이후에, PC(200)는 감지된 움직임량과 구부림량에 기초하여 손바닥 좌표값과 손가락마디 좌표값을 계산하고(S460), 계산된 좌표값들을 이용하여 표시부(220)의 화면상에 가상의 손을 표시한다(S470). 구체적으로, 중앙처리부(230)가 저장부(210)에 저장된 '가상입력장치 제어용 프로그램'을 이용하여, 계산작업과 표시작업을 수행한다.
이때, 표시부(220)에 표시되는 가상의 손을 도 5c에 도시하였다. 도 5c에 도시된 가상의 손에 표시된 여러개의 점들은 S460단계에서 계산된 손바닥 좌표값과 손가락마디 좌표값에 대응되는 가상공간상의 점들이다.
PC(200)는 계산된 손가락마디 좌표값과 동일한 좌표값을 가지는 3차원 격자가 존재하는 것으로 판단된 경우에는(S480), 해당 손가락마디의 구부림을 제한한다(S490). 이와 같은, 판단작업과 제한작업은 모든 손가락마디 좌표값에 대하여 수행된다. 구체적으로, 중앙처리부(230)는 저장부(210)에 저장된 '가상입력장치 제어용 프로그램'과 '3차원 격자들의 좌표값'을 이용하여, 판단작업 및 제한작업을 수행한다.
손가락마디 좌표값과 동일한 좌표값을 가지는 3차원 격자가 존재한다는 것은, 가상공간상에서 가상의 손이 가상의 3차원 형상에 닿았음을 의미한다. 따라서, 중앙처리부(230)는 해당 손가락마디의 해당방향으로의 구부림을 제한하기 위한 제어신호를 가상입력장치 인터페이스부(250)를 통해 가상입력장치(100)로 전달한다.
전달된 제어신호는 PC 인터페이스부(140)를 통해 해당 손가락마디를 움직이는 손가락관절 부분에 위치한 구부림 감지/제한부(130)로 전달된다. 예를 들면, 검지손가락의 첫번째 마디가 3차원 형상에 닿은 것으로 판단된 경우라면, 이를 움직이는 검지손가락의 첫번째 관절 부분에 위치한 구부림 감지/제한부(130)에 제어신호가 전달되는 것이다.
제어신호를 전달받은 구부림 감지/제한부(130)는 손가락마디의 해당방향으로의 구부림을 제한한다. 구체적으로, 구부림 감지/제한부(130)의 회전 제한부(135)는 모터부(131)의 해당방향으로의 회전을 제한한다. 결과적으로 사용자는 그 방향으로 손가락 관절을 구부릴 수 없게 된다.
그리고, S450단계 내지 S490단계의 반복을 통해, 가상의 손으로 가상의 3차원 형상을 움켜 쥘 수 있다. 이때, 표시부(220)에 표시되는 화면을 도 5d에 도시하였다. 도 5d에 표시된 가상의 손과 사용자의 실제 손의 구부림 정도는 일치한다. 따라서, 이때 사용자는 가상의 3차원 형상의 그립감을 실제처럼 느끼게 된다.
본 실시예에서는, 가상입력장치(100)의 호스트장치로서 PC(200)를 예로 들어 설명하였다. 그러나, 이는 일 예에 불과한 것으로, 가상입력장치(100)와 인터페이스하면서, 입력데이터를 연산처리하고 움직임을 제한할 수 있는 장치라면 어느 것이라도 호스트장치로 사용될 수 있다.
이상 설명한 바와 같이, 본 발명에 따르면, 실제 손의 움직임과 구부림을 감지하여 화면상에 가상의 손을 표시한다. 그리고, 표시된 가상의 손이 화면상에 표시된 가상의 3차원 형상에 닿는 경우에는 실제 손의 구부림을 제한하여 그립감을 가상으로 느끼게 할 수 있다. 따라서, 제품의 실물모형을 제작하지 않아도 그 제품의 그립감을 가상으로 느낄 수 있게 된다. 따라서, 실물모형의 제작에 따른 비용과 시간소요를 방지할 수 있게 된다. 또한, 개발자가 제품형상을 디자인하는 경우에, 보다 자유롭게 제품형상을 변경할 수 있기 때문에, 제품형상의 디자인작업이 보다 수월해진다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른, 가상입력시스템을 도시한 도면,
도 2는 도 1의 가상입력장치를 도시한 도면,
도 3은 도 2의 구부림 감지/제한부의 상세 블럭도,
도 4는 본 발명의 일 실시예에 따른, 가상입력방법의 설명에 제공되는 흐름도, 그리고,
도 5a 내지 도 5d는 가상입력 과정에서 표시되는 화면들을 도시한 도면이다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 가상입력장치 110 : 장갑
120 : 이동 감지부 130 : 구부림 감지/제한부
131 : 모터부 133 : 회전각 감지부
135 : 회전 제한부 140 : PC 인터페이스부
200 : PC

Claims (13)

  1. 실제 손의 이동량을 감지하는 이동감지부;
    상기 실제 손의 손가락의 구부림량을 감지하고, 호스트장치로부터 제어신호를 수신하면 상기 손가락의 구부림을 제한하는 구부림 감지/제한부; 및
    감지된 상기 이동량 및 상기 구부림량을 상기 호스트장치로 전송하고, 상기 호스트장치가 상기 이동량, 상기 구부림량 및 소정의 3차원 형상에 대한 정보를 이용하여 생성한 상기 제어신호를 수신하여 상기 구부림 감지/제한부로 전달하는 통신 인터페이스부;를 포함하는 것을 특징으로 하는 가상입력장치.
  2. 제 1항에 있어서,
    상기 제어신호는 상기 호스트장치의 화면상에 표시되는 상기 가상의 손이 상기 호스트장치의 화면상에 표시되는 상기 소정의 3차원 형상에 닿은 것으로 판단되면 생성되는 것을 특징으로 하는 가상입력장치.
  3. 제 1항에 있어서,
    상기 구부림 감지/제한부는,
    상기 손가락의 구부림동작에 따라 연동하여 회전하는 모터부;
    상기 모터부의 회전각을 감지함으로서, 상기 손가락의 구부림량을 감지하는 회전각 감지부; 및
    상기 호스트장치로부터 상기 제어신호를 수신하면, 상기 모터부의 회전을 제한함으로서, 상기 손가락의 구부림을 제한하는 회전제한부;를 포함하는 것을 특징으로 하는 가상입력장치.
  4. 제 1항에 있어서,
    상기 이동감지부는, 각속도센서를 이용하여 상기 실제 손의 공간상의 이동량을 감지하는 것을 특징으로 하는 가상입력장치.
  5. 실제 손의 움직임량을 감지하고, 외부로부터 입력되는 제어신호에 따라 상기 실제 손의 움직임을 제한하는 가상입력장치; 및
    상기 움직임량에 기초하여 상기 실제 손에 대응되는 가상의 손을 화면상에 표시하고, 상기 움직임량 및 소정의 3차원 형상에 대한 정보에 기초하여 생성한 상기 제어신호를 가상입력장치로 전송하는 호스트장치;를 포함하는 것을 특징으로 하는 가상입력시스템.
  6. 제 5항에 있어서,
    상기 가상입력장치는,
    상기 실제 손의 이동량을 감지하는 이동감지부; 및
    상기 실제 손의 손가락의 구부림량을 감지하고, 상기 호스트장치로부터 상기 제어신호를 수신하면 상기 손가락의 구부림을 제한하는 구부림 감지/제한부;를 포함하는 것을 특징으로 하는 가상입력시스템.
  7. 제 6항에 있어서,
    상기 구부림 감지/제한부는,
    상기 손가락의 구부림동작에 따라 연동하여 회전하는 모터부;
    상기 모터부의 회전각을 감지함으로서, 상기 손가락의 구부림량을 감지하는 회전각 감지부; 및
    상기 호스트장치로부터 상기 제어신호를 수신하면, 상기 모터부의 회전을 제한함으로서, 상기 손가락의 구부림을 제한하는 회전제한부;를 포함하는 것을 특징으로 하는 가상입력시스템.
  8. 제 6항에 있어서,
    상기 호스트장치는,
    상기 화면상에 표시되는 상기 가상의 손이 상기 화면상에 표시되는 상기 소정의 3차원 형상에 닿은 것으로 판단되면 상기 제어신호를 생성되는 것을 특징으로 하는 가상입력시스템.
  9. 제 8항에 있어서,
    상기 호스트장치는,
    가상의 손가락의 가상공간상 좌표값과 상기 소정의 3차원 형상에 대한 격자의 상기 가상공간상 좌표값이 일치하는 경우에 상기 가상의 손가락이 상기 소정의 3차원 형상 에 닿은 것으로 판단하는 것을 특징으로 하는 가상입력시스템.
  10. a) 소정의 3차원 형상을 화면상에 표시하는 단계;
    b) 실제 손의 움직임량을 감지하는 단계;
    c) 상기 움직임량에 기초하여 상기 실제 손에 대응되는 가상의 손을 상기 화면상에 표시하는 단계; 및
    d) 상기 움직임량 및 상기 소정의 3차원 형상에 대한 정보에 기초하여 상기 실제 손의 움직임을 제한하는 단계;를 포함하는 것을 특징으로 하는 가상입력방법.
  11. 제 10항에 있어서,
    상기 b) 단계는,
    상기 실제 손의 이동량을 감지하는 단계; 및
    상기 실제 손의 손가락의 구부림량을 감지하는 단계;를 포함하는 것을 특징으로 하는 가상입력방법.
  12. 제 11항에 있어서,
    상기 d) 단계는,
    상기 화면상에 표시되는 상기 가상의 손이 상기 화면상에 표시되는 상기 소정의 3차원 형상에 닿은 것으로 판단되면 상기 실제 손의 움직임을 제한하는 것을 특징으로 하는 가상입력방법.
  13. 제 12항에 있어서,
    상기 d) 단계는,
    가상의 손가락의 가상공간상 좌표값과 상기 소정의 3차원 형상에 대한 격자의 상기 가상공간상 좌표값이 일치하는 경우에 상기 가상의 손가락이 상기 소정의 3차원 형상에 닿은 것으로 판단하는 것을 특징으로 하는 가상입력방법.
KR1020040028078A 2004-04-23 2004-04-23 가상입력장치, 시스템 및 방법 KR20050102803A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040028078A KR20050102803A (ko) 2004-04-23 2004-04-23 가상입력장치, 시스템 및 방법
US11/060,397 US20050237296A1 (en) 2004-04-23 2005-02-18 Apparatus, system and method for virtual user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040028078A KR20050102803A (ko) 2004-04-23 2004-04-23 가상입력장치, 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20050102803A true KR20050102803A (ko) 2005-10-27

Family

ID=35135921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040028078A KR20050102803A (ko) 2004-04-23 2004-04-23 가상입력장치, 시스템 및 방법

Country Status (2)

Country Link
US (1) US20050237296A1 (ko)
KR (1) KR20050102803A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835459B1 (ko) * 2006-06-22 2008-06-04 한국정보통신대학교 산학협력단 맨손을 이용한 3차원 입력장치
KR20210116553A (ko) * 2019-02-14 2021-09-27 브라운 게엠베하 구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172577A (ja) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置
CN101394500B (zh) * 2005-12-14 2010-11-17 日本胜利株式会社 电子设备及其控制方法
US8771071B2 (en) * 2006-11-22 2014-07-08 Sony Computer Entertainment America Llc System and method of rendering controller information
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US9886231B2 (en) 2008-03-28 2018-02-06 Kopin Corporation Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
EP2427812A4 (en) * 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
RU2605349C2 (ru) * 2011-02-04 2016-12-20 Конинклейке Филипс Н.В. Управляемая жестами система, которая использует проприоцепцию, чтобы создавать абсолютную систему координат
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
DE102012203163A1 (de) * 2012-02-29 2013-08-29 Airbus Operations Gmbh Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine
JP6289448B2 (ja) 2012-04-25 2018-03-07 コピン コーポレーション 即時翻訳システム
US8929954B2 (en) 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
US9442290B2 (en) 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
US20140002336A1 (en) * 2012-06-27 2014-01-02 Greg D. Kaine Peripheral device for visual and/or tactile feedback
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US9301085B2 (en) 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
WO2015108112A1 (ja) * 2014-01-15 2015-07-23 株式会社Juice Design 操作判定装置、操作判定方法、および、プログラム
DE102014107220A1 (de) * 2014-05-22 2015-11-26 Atlas Elektronik Gmbh Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4444205A (en) * 1980-05-31 1984-04-24 University Of Strathclyde Apparatus for assessing joint mobility
GB8502197D0 (en) * 1985-01-29 1985-02-27 Univ Strathclyde Electro-conductive elastomeric devices
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5047952A (en) * 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US5184319A (en) * 1990-02-02 1993-02-02 Kramer James F Force feedback and textures simulating interface device
US5143505A (en) * 1991-02-26 1992-09-01 Rutgers University Actuator system for providing force feedback to a dextrous master glove
US5670987A (en) * 1993-09-21 1997-09-23 Kabushiki Kaisha Toshiba Virtual manipulating apparatus and method
JP3630712B2 (ja) * 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
AU1328597A (en) * 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US5744953A (en) * 1996-08-29 1998-04-28 Ascension Technology Corporation Magnetic motion tracker with transmitter placed on tracked object
US6104379A (en) * 1996-12-11 2000-08-15 Virtual Technologies, Inc. Forearm-supported exoskeleton hand-tracking device
US5858291A (en) * 1997-03-04 1999-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method of making an electrically conductive strain gauge material
JP3409160B2 (ja) * 2000-04-26 2003-05-26 独立行政法人産業技術総合研究所 把握データ入力装置
US6640202B1 (en) * 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6744420B2 (en) * 2000-06-01 2004-06-01 Olympus Optical Co., Ltd. Operation input apparatus using sensor attachable to operator's hand
KR20020073890A (ko) * 2001-03-16 2002-09-28 한국전자통신연구원 손의 주물거림을 이용한 3 차원 모델링 시스템 및 그 방법
US6848083B2 (en) * 2001-07-11 2005-01-25 Hung-Lien Shen Data input method and device for a computer system
US7131596B2 (en) * 2003-04-07 2006-11-07 Silverbrook Research Pty Ltd Symmetric data tags

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835459B1 (ko) * 2006-06-22 2008-06-04 한국정보통신대학교 산학협력단 맨손을 이용한 3차원 입력장치
KR20210116553A (ko) * 2019-02-14 2021-09-27 브라운 게엠베하 구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템

Also Published As

Publication number Publication date
US20050237296A1 (en) 2005-10-27

Similar Documents

Publication Publication Date Title
KR20050102803A (ko) 가상입력장치, 시스템 및 방법
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
CN102830795B (zh) 利用运动传感装置的远程控制
CN105824431B (zh) 信息输入装置与方法
CN102197377B (zh) 多触摸对象惯性模拟
JP6046729B2 (ja) 全方向ジェスチャー入力
Riener Gestural interaction in vehicular applications
Ni et al. Design and evaluation of freehand menu selection interfaces using tilt and pinch gestures
CN107132988A (zh) 虚拟对象状态控制方法、装置、电子设备及存储介质
US20070222746A1 (en) Gestural input for navigation and manipulation in virtual space
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
CN102707799B (zh) 一种手势识别方法及手势识别装置
CN107469354A (zh) 补偿声音信息的视觉方法及装置、存储介质、电子设备
KR101318244B1 (ko) 3차원 사용자 인터페이스 구현 시스템 및 구현 방법
CN109697002B (zh) 一种在虚拟现实中对象编辑的方法、相关设备及系统
TWI621037B (zh) 利用運動下達指令的觸控系統、觸控筆與其方法
CN103823548A (zh) 电子设备、穿戴式设备、控制系统和方法
CN105183236A (zh) 一种触屏输入装置与方法
CN107272892A (zh) 一种虚拟触控系统、方法及装置
US20070277112A1 (en) Three-Dimensional User Interface For Controlling A Virtual Reality Graphics System By Function Selection
CN114529691A (zh) 一种窗口控制方法、电子设备及计算机可读存储介质
CN105975091A (zh) 一种基于惯性传感器的虚拟键盘人机交互技术
CN109960404B (zh) 一种数据处理方法及装置
US20150309601A1 (en) Touch input system and input control method
KR102322968B1 (ko) 사용자의 손동작에 따른 명령 입력 장치 및 이를 이용한 명령 입력 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid