KR20090064968A - 핸드 햅틱 인터페이스 장치 및 방법 - Google Patents

핸드 햅틱 인터페이스 장치 및 방법 Download PDF

Info

Publication number
KR20090064968A
KR20090064968A KR1020070132361A KR20070132361A KR20090064968A KR 20090064968 A KR20090064968 A KR 20090064968A KR 1020070132361 A KR1020070132361 A KR 1020070132361A KR 20070132361 A KR20070132361 A KR 20070132361A KR 20090064968 A KR20090064968 A KR 20090064968A
Authority
KR
South Korea
Prior art keywords
hand
haptic
force
user
data
Prior art date
Application number
KR1020070132361A
Other languages
English (en)
Other versions
KR100906576B1 (ko
Inventor
장용석
김용완
손욱호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070132361A priority Critical patent/KR100906576B1/ko
Publication of KR20090064968A publication Critical patent/KR20090064968A/ko
Application granted granted Critical
Publication of KR100906576B1 publication Critical patent/KR100906576B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 핸드 햅틱 인터페이스 장치 및 방법에 관한 것으로, 가상 환경에서의 실감적 상호작용 인터페이스의 하나로 사실적이면서 자연스러운 핸드 작업을 지원하고, 산업계에서 요구되고 있는 가상 품평 및 가상 훈련, 사용성 평가와 같은 가상 환경내에서 핸드 햅틱 인터페이스를 통하여 시뮬레이션함으로써 자연스럽고 직관적인이고 직접적인 인터페이스를 제공할 수 있다. 또한, 3차원 시각화에 의존하는 가상 환경 시스템에서 벗어나 핸드 인터페이스를 통해 사용자가 보다 직관적으로 제품을 디자인, 품평, 조립 등의 제작 공정을 시뮬레이션할 수 있다.
핸드, 햅틱, 인터페이스, 가상환경

Description

핸드 햅틱 인터페이스 장치 및 방법{APPARATUS AND METHOD FOR INTERFACING HAND HAPTIC}
본 발명은 가상 환경에서의 실감적 상호작용 인터페이스의 하나로 사실적이면서 자연스러운 핸드 작업을 지원할 수 있는 장치 및 방법에 관한 것이다.
주지된 바와 같이, 인간의 사물 인식이나 외부로부터의 정보 수집은 시각, 청각, 촉각, 미각, 후각으로 분류되는 오감을 이용함으로써 외부 환경과의 상호작용을 통하여 사물을 인식하거나 외부 정보를 받아들이게 된다.
이에, 휴먼-컴퓨터 인터페이스(HCI) 및 가상현실 분야의 많은 연구들은 대부분 시각과 청각에 대한 연구들이 주류를 이루고 있었으며, 최근 촉각이나 후각에 대한 연구도 진행되고 있다. 하지만, 촉각에 대한 대부분의 연구는 손이나 국부적 신체 부위를 대상으로 이루어진 이동 불가능한 형태의 장비(nonportable force feedback device : PHANToM Master, SPIDAR)나 착용성과 사용 편의성 측면에서 매우 불편한 장비(exoskeleton device : CyberGrasp) 또는 진동과 같은 실제와는 다 른 이질적인 촉감을 제시하는 장비(vibro-taile feedback device : CyberTouch)를 사용한 연구들이 진행되고 있다.
그러나, 상기한 바와 같은 연구들은 가상현실 분야에서 추구하는 실재감(presence)을 증가시키기 위한 촉각 장비(haptic or tactile device)로서의 역할을 충족시키기에는 부족한 것이 현실이며, 또한 실용적인 측면에서도 비현실적인 연구들임에 따라 가상 환경에서 사용자에게 보다 높은 실재감과 3차원 방향 정보, 코드화된 정보 등과 같은 다양하고 정확한 정보를 전달하기 위한 수단으로 촉각을 이용한 사용자 편의성이 고려된 장비 개발의 필요성이 대두된다.
이러한 필요성에 의해 개발된 것이 햅틱 인터페이스 기술인데, 이는 가상환경의 각 물체들 간의 인터페이스 기술로서 기존의 시각 및 청각적 특수 효과를 보완하여 한 차원 높은 몰입감을 제공하는 인터페이스 기술이지만, 가상 의료 및 게임 분야에서 일부 사용되고 있으나 아직까지 가상적 제품 생산 등의 제조업 분야에서 적용될 수 있는 방법은 개시되지 않았다.
또한, 핸드 인터페이스 기술은 진동기 또는 와이어로 잡아당기는 형식의 기구부를 이용하여 손가락 끝 부분에 역촉감을 제시하는 방법(미국특허 6979164, Force feedback and texture simulating interface device)을 사용하고 있으나, 이것은 어떤 물체와 접촉하였을 때 느끼는 감각과는 차이가 있으며, 손가락 전체에 역감을 표현하기에는 어려우며, 제품의 가상 디자인, 품평, 조립 등의 시뮬레이션을 위한 사실적 역촉감 제시를 지원하지는 못하며, 착용성이 매우 불편하다는 문제점이 있다.
이에, 본 발명의 기술적 과제는 상기와 같은 문제점을 해결하기 위해 안출한 것으로서, 가상 환경에서의 실감적 상호작용 인터페이스의 하나로 사실적이면서 자연스러운 핸드 작업을 지원할 수 있는 핸드 햅틱 인터페이스 장치 및 방법을 제공한다.
즉, 가상 품평 및 가상 훈련 시스템 등과 같이 사용자가 가상 환경 속에서 직접 손을 이용하여 가상 객체를 조작해보는 시나리오에서 사용자의 정밀한 손동작 추적과 함께 정확한 실시간 충돌 처리 그리고 이를 사용자에게 역촉감으로 전달하기 위한 역촉감 생성부가 필요하다. 이에 동작 추적 장치를 통하여 사용자의 손동작을 가상 공간 내에서 가변형 스킨 메쉬 기반의 자연스러운 움직임을 표현할 수 있는 가상 손 모델을 가시화하고, 가상 객체와의 상호작용을 통하여 사용자에게 사실적 역촉감을 전달함으로써 높은 실재감과 몰입감을 제공하는 것이다.
본 발명의 일 관점에 따른 핸드 햅틱 인터페이스 장치는, 사용자의 정확한 손동작을 추적하여 3차원 그래픽 화면으로 가시화시킨 핸드 트래킹 데이터를 제공하고, 이에 대응하는 핸드 힘/토크 데이터를 제공받아 사용자에게 촉감 제시와 역감 제시를 수행하는 핸드 햅틱 하드웨어 블록과, 핸드 트래킹 데이터에 따라 애플리케이션을 통해 역감 렌더링을 위한 핸드 힘/토크 데이터를 생성하여 핸드 햅틱 하드웨어 블록에 제공하는 핸드 햅틱 인터페이스 소프트웨어 블록을 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 관점에 따른 핸드 햅틱 인터페이스 방법은, 핸드 트래킹 센서를 통하여 사용자의 정확한 손동작을 추적하는 단계와, 추적된 핸드 트래킹 데이터를 3차원 그래픽 화면으로 가시화시켜 핸드 햅틱 인터페이스 소프트웨어 블록에 제공하는 단계와, 가시화된 핸드 트래킹 데이터에 따라 애플리케이션을 통해 역감 렌더링을 위한 핸드 힘/토크 데이터를 생성하는 단계와, 생성된 핸드 힘/토크 데이터를 핸드 햅틱 하드웨어 블록에 제공하는 단계와, 수신된 핸드 힘/토크 데이터에 따라 사용자에게 촉감 제시와 역감 제시를 수행하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 가상 환경에서의 실감적 상호작용 인터페이스의 하나로 사실적이면서 자연스러운 핸드 작업을 지원하고, 산업계에서 요구되고 있는 가상 품평 및 가상 훈련, 사용성 평가와 같은 가상 환경내에서 핸드 햅틱 인터페이스를 통하여 시뮬레이션함으로써 자연스럽고 직관적인이고 직접적인 인터페이스를 제공할 수 있다.
또한, 본 발명은 3차원 시각화에 의존하는 가상 환경 시스템에서 벗어나 핸드 인터페이스를 통해 사용자가 보다 직관적으로 제품을 디자인, 품평, 조립 등의 제작 공정을 시뮬레이션할 수 있는 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 핸드 햅틱 인터페이스 장치를 위한 블록 구성도로서, 핸드 햅틱 하드웨어 블록(10) 및 애플리케이션(S1)에 연결된 핸드 햅틱 인터페이스 소프트웨어 블록(20)을 포함한다.
핸드 햅틱 하드웨어 블록(10)은 도 3에 도시된 바와 같이 핸드 인터페이스 장갑(10a)과 데이터 획득 및 제어부(10b)와 역촉감 제시 구동기(10c)로 이루어져 있다.
핸드 인터페이스 장갑(10a)은 장갑형 핸드 햅틱 인터페이스 장치로서 핸드 트래킹 센서(예컨대, LVDT식 초소형 절대 위치 센서)를 통하여 사용자의 정확한 손동작을 추적한 아날로그 핸드 트래킹 데이터를 데이터 획득부(10b)에 제공한다.
데이터 획득 및 제어부(10b)는 핸드 인터페이스 장갑(10a)으로부터 입력되는 아날로그 핸드 트래킹 데이터를 디지털 핸드 트래킹 데이터로 변환하여 손의 움직임을 3차원 그래픽 화면으로 정확하게 가시화시켜 핸드 햅틱 인터페이스 소프트웨 어 블록(20)에 제공한다. 또한, 데이터 획득 및 제어부(10b)는 핸드 햅틱 인터페이스 소프트웨어 블록(20)으로부터 입력되는 핸드 힘/토크 데이터를 역촉감 제시 구동기(10c)에 제공한다.
역촉감 제시 구동기(10c)는 기존의 비현실적인 진동과 같은 형태의 충돌감 제시방법(Immersion사의 CyberTouch)과는 다른 구동기로서, 데이터 획득 및 제어부(10b)로부터 입력되는 핸드 힘/토크 데이터에 따라 인체 감각 수용기의 구조를 기반으로 수용기가 수용할 수 있는 느낌을 면구조로 압박하여 촉감을 느끼게 하거나 벨로우즈(bellows) 구조의 막대형 구동기를 이용하여 공기의 주흡입에 따른 길이 변화를 역학적 힘으로 변환하여 손가락 전체에 반력감을 제시하게 된다.
즉, 역촉감 제시 구동기(10c)는 촉감 제시를 위해서 손가락 끝(5개 접점)(S3)과 손바닥(1개 접점)(S2)에 공압식 공기주머니를 두고 공기를 주입하여 피부에 압박을 가하여 물체를 잡거나 닫는 듯한 느낌을 사용자에게 제공한다. 또한 벨로우즈(S4)를 이용한 막대형 구동기는 공기를 주입하거나 흡입하여 벨로우즈(S4)의 길이 변화를 통하여 각 손가락 전체를 손등 쪽에서 밀거나 당기는 반력감을 발생함으로써 가상 객체를 잡거나 미는 역감 제시를 제공한다.
핸드 햅틱 인터페이스 소프트웨어 블록(20)은 드라이버(20a)와 저수준 제어 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, 이하, API라함)(20b)와 고수준 햅틱 렌더링 API(20c)를 포함한다.
드라이버(20a)는 핸드 햅틱 인터페이스 소프트웨어 블록(20)을 인식 및 관리하기 위해 도 2에 도시된 바와 같이 입출력(I/O) 매니저, 속성 매니저, 플러그&플 러그(Plug&Plug) 매니저, 전원관리 매니저, 장치 추상화 계층으로 구비되어 있는 블록으로서, 핸드 햅틱 하드웨어 블록(10)간의 동기화를 위해 초기화를 수행하여 각각의 기동을 보장하도록 한다. 또한, 드라이버(20a)는 동기화된 상태에서 핸드 햅틱 하드웨어 블록(10)으로부터 입력되는 3차원 그래픽 화면으로 가시화된 디지털 핸드 트래킹 데이터를 저수준 제어 API(20b)에 제공하고, 이에 대응하는 핸드 힘/토크 데이터를 핸드 햅틱 하드웨어 블록(10)에 제공한다.
저수준 제어 API(20b)는 핸드 햅틱 인터페이스 소프트웨어 블록(20)을 직접적으로 제어하기 위해 도 2에 도시된 바와 같이 장치 제어(인에이블/디스에이블(Enable/Disable), 상태/데이터(state/data)를 얻고(Get) 세트(Set)하는 디바이스)와 에러 핸들링과 입/출력(I/O)블록으로 구비되어 있는 블록으로서, 드라이버(20a)로부터 입력되는 3차원 그래픽 화면으로 가시화된 디지털 핸드 트래킹 데이터를 고수준 햅틱 렌더링 API(20c)에 제공하며, 이에 대응하는 핸드 힘/토크 데이터를 드라이버(20a)에 제공한다.
고수준 햅틱 렌더링 API(20c)는 가상 손 모델 제어 및 충돌처리, 역촉감 제시를 위한 핸드 힘/토크 계산 등을 수행하기 위해 도 2에 도시된 바와 같이 햅틱 렌더링(힘렌더링과 동력학 시뮬레이션)과 햅틱(가상 손 모델과 가상 객체 모델)과 충돌 처리 엔진(충돌감지와 출동응답)과 핸드 햅틱 장치 매니져로 이루어진 블록으로서, 저수준 제어 API(20b)로부터 입력되는 3차원 그래픽 화면으로 가시화된 디지털 핸드 트래킹 데이터에 따라 가상 손 모델 제어, 손 모델 운동학 처리, 충돌 처리, 사실적 역촉감 제시를 위한 동역학 처리와 핸드 힘/토크 데이터를 생성하는 역 감 렌더링 등의 역할을 애플리케이션(S1)(도 2에 도시된 바와 같이 가상 품명, 가상 훈련, 가상 사용성 평가로 이루어짐)을 통해 수행한다. 또한, 고수준 햅틱 렌더링 API(20c)는 애플리케이션(S1)의 제어에 따라 디지털 핸드 트래킹 데이터에 대응하여 생성된 핸드 힘/토크 데이터를 저수준 제어 API(20b)에 제공한다.
일 예로, 고수준 햅틱 렌더링 API(20c)는 가상 객체와의 상호작용을 위한 실시간 충돌처리를 수행할 수 있는데, 이는 가상 손 모델과 객체 간의 폴리곤 단위의 계층적 처리를 통하여 정확하고 신속한 처리가 가능하다.
또한, 정확한 충돌처리를 위하여 수백만 폴리곤의 대용량 모델을 대상으로 폴리곤 대 폴리곤의 충돌검사를 하게 되며, 수백만 폴리곤 대상의 충돌검사 시 실시간 충돌처리를 위하여 전처리 단계로 충돌검사 관심 대상의 부분 객체만을 선택적으로 분류하여 단계적으로 충돌여부를 검사하는 계층적 충돌검사 기법과 3차원 그래픽 가시화 프로세스와는 독립된 충돌처리 프로세스로 분리하는 멀티쓰레드 기법을 사용한다.
이때 발생된 충돌 이벤트는 사용자에게 2가지 형태의 느낌으로 전달될 수 있다. 첫째는 압력을 감지하는 피부의 압감으로부터 느끼는 촉감으로 물체를 만지거나 잡았을 경우 손가락 끝 또는 손바닥 전체에서 느껴지는 압력감이고, 둘째는 각 관절의 꺾긴 정도와 이와 관련된 근육들의 이완 정도로 느끼는 역감으로 우리가 어떤 물체를 밀었을 때 발생하는 작용반작용에 의한 힘이 우리 몸에 전달되었을 때 느껴지는 반력감이다.
따라서, 본 발명은 가상 환경에서의 실감적 상호작용 인터페이스의 하나로 사실적이면서 자연스러운 핸드 작업을 지원하고, 산업계에서 요구되고 있는 가상 품평 및 가상 훈련, 사용성 평가와 같은 가상 환경내에서 핸드 햅틱 인터페이스를 통하여 시뮬레이션함으로써 자연스럽고 직관적인이고 직접적인 인터페이스를 제공할 수 있다.
한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 바람직한 실시예에 따른 핸드 햅틱 인터페이스 장치를 위한 블록 구성도,
도 2는 도 1에 도시된 핸드 햅틱 인터페이스 소프트웨어 블록의 상세 구성도,
도 3는 도 1에 도시된 핸드 햅틱 인터페이스 하드웨어 블록의 상세 구성도.
<도면의 주요부분에 대한 부호의 설명>
10 : 핸드 햅틱 하드웨어 블록
20 : 핸드 햅틱 인터페이스 소프트웨어 블록
10a : 핸드 인터페이스 장갑 10b : 데이터 획득 및 제어부
10c : 역촉감 제시 구동기
20a : 드라이버 20b : 저수준 제어 API
20c : 고수준 햅틱 렌더링 API

Claims (8)

  1. 사용자의 정확한 손동작을 추적하여 3차원 그래픽 화면으로 가시화시킨 핸드 트래킹 데이터를 제공하고, 이에 대응하는 핸드 힘/토크 데이터를 제공받아 사용자에게 촉감 제시와 역감 제시를 수행하는 핸드 햅틱 하드웨어 블록과,
    상기 핸드 트래킹 데이터에 따라 애플리케이션을 통해 역감 렌더링을 위한 핸드 힘/토크 데이터를 생성하여 상기 핸드 햅틱 하드웨어 블록에 제공하는 핸드 햅틱 인터페이스 소프트웨어 블록
    을 포함하는 핸드 햅틱 인터페이스 장치.
  2. 제 1 항에 있어서,
    상기 핸드 햅틱 하드웨어 블록은,
    핸드 트래킹 센서를 통하여 사용자의 정확한 손동작을 추적하는 핸드 인터페이스 장갑과,
    상기 추적된 핸드 트래킹 데이터를 3차원 그래픽 화면으로 가시화시켜 상기 핸드 햅틱 인터페이스 소프트웨어 블록에 제공하고, 상기 핸드 트래킹 데이터에 대응하는 핸드 힘/토크 데이터를 수신하는 데이터 획득 및 제어부와,
    상기 수신된 핸드 힘/토크 데이터에 따라 사용자에게 촉감 제시와 역감 제시를 수행하는 역촉감 제시 구동기
    를 포함하는 핸드 햅틱 인터페이스 장치.
  3. 제 2 항에 있어서,
    상기 역촉감 제시 구동기에 의한 촉감 제시는, 손가락 끝과 손바닥에 공압식 공기주머니를 두고 공기를 주입하여 피부에 압박을 가하여 물체를 잡거나 닫는 듯한 느낌을 사용자에게 제공하는 것을 특징으로 하는 핸드 햅틱 인터페이스 장치.
  4. 제 2 항에 있어서,
    상기 역촉감 제시 구동기에 의한 역감 제시는, 벨로우즈를 이용한 막대형 구동기는 공기를 주입하거나 흡입하여 벨로우즈의 길이 변화를 통하여 각 손가락 전체를 손등 쪽에서 밀거나 당기는 반력감을 발생하여 가상 객체를 잡거나 미는 것을 특징으로 하는 핸드 햅틱 인터페이스 장치.
  5. 제 1 항에 있어서,
    상기 핸드 햅틱 인터페이스 소프트웨어 블록은,
    상기 핸드 햅틱 하드웨어 블록과의 동기화를 위해 초기화를 수행하여 각각의 기동을 보장하는 드라이버와,
    상기 드라이버에 의해 동기화된 상태에서, 상기 핸드 햅틱 하드웨어 블록으로부터 입력되는 핸드 트래킹 데이터를 제공하며, 이에 대응하는 핸드 힘/토크 데이터를 상기 핸드 햅틱 하드웨어 블록에 제공하는 저수준 제어 애플리케이션 프로그래밍 인터페이스(API)와,
    상기 핸드 트래킹 데이터에 따라 애플리케이션을 통해 역감 렌더링을 위한 핸드 힘/토크 데이터를 생성하여 상기 저수준 제어 API에 제공하는 고수준 햅틱 렌더링 API
    를 포함하는 핸드 햅틱 인터페이스 장치.
  6. 핸드 트래킹 센서를 통하여 사용자의 정확한 손동작을 추적하는 단계와,
    상기 추적된 핸드 트래킹 데이터를 3차원 그래픽 화면으로 가시화시켜 핸드 햅틱 인터페이스 소프트웨어 블록에 제공하는 단계와,
    상기 가시화된 핸드 트래킹 데이터에 따라 애플리케이션을 통해 역감 렌더링을 위한 핸드 힘/토크 데이터를 생성하는 단계와,
    상기 생성된 핸드 힘/토크 데이터를 핸드 햅틱 하드웨어 블록에 제공하는 단계와,
    상기 수신된 핸드 힘/토크 데이터에 따라 사용자에게 촉감 제시와 역감 제시를 수행하는 단계
    를 포함하는 핸드 햅틱 인터페이스 방법.
  7. 제 6 항에 있어서,
    상기 촉감 제시는, 손가락 끝과 손바닥에 공압식 공기주머니를 두고 공기를 주입하여 피부에 압박을 가하여 물체를 잡거나 닫는 듯한 느낌을 사용자에게 제공하는 것을 특징으로 하는 핸드 햅틱 인터페이스 방법.
  8. 제 6 항에 있어서,
    상기 역감 제시는, 벨로우즈를 이용한 막대형 구동기는 공기를 주입하거나 흡입하여 벨로우즈의 길이 변화를 통하여 각 손가락 전체를 손등 쪽에서 밀거나 당기는 반력감을 발생하여 가상 객체를 잡거나 미는 것을 특징으로 하는 핸드 햅틱 인터페이스 방법.
KR1020070132361A 2007-12-17 2007-12-17 핸드 햅틱 인터페이스 장치 및 방법 KR100906576B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070132361A KR100906576B1 (ko) 2007-12-17 2007-12-17 핸드 햅틱 인터페이스 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070132361A KR100906576B1 (ko) 2007-12-17 2007-12-17 핸드 햅틱 인터페이스 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20090064968A true KR20090064968A (ko) 2009-06-22
KR100906576B1 KR100906576B1 (ko) 2009-07-10

Family

ID=40993446

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070132361A KR100906576B1 (ko) 2007-12-17 2007-12-17 핸드 햅틱 인터페이스 장치 및 방법

Country Status (1)

Country Link
KR (1) KR100906576B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150041548A (ko) * 2013-10-08 2015-04-16 삼성전자주식회사 증강 현실을 제공하는 방법 및 컴퓨팅 디바이스
US9354705B2 (en) 2014-08-25 2016-05-31 Yeonhab Precision Co., Ltd. Integrated haptic feedback simulating device using kinesthesia providing module including magnetorheological fluid and thin-film-type tactile sensation providing module
US9436280B2 (en) 2010-01-07 2016-09-06 Qualcomm Incorporated Simulation of three-dimensional touch sensation using haptics
KR20180044148A (ko) * 2016-10-21 2018-05-02 한국기술교육대학교 산학협력단 햅틱 글로브
KR101972569B1 (ko) * 2018-06-20 2019-04-29 주식회사 풀다이브테크놀로지 비현실 촉감 전달 글러브
WO2019241017A1 (en) * 2018-06-15 2019-12-19 Immersion Corporation A kinesthetically enabled glove
US11188150B2 (en) 2017-12-22 2021-11-30 Korea University Of Technology And Education Industry-University Cooperation Foundation Haptic tool system
CN114619445A (zh) * 2022-03-11 2022-06-14 北京理工大学 抓取系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101239370B1 (ko) 2009-12-11 2013-03-05 광주과학기술원 가상 환경의 햅틱 속성의 정의를 통한 촉각 정보 표현 방법 및 촉각 정보 전송 시스템
KR101250503B1 (ko) 2009-12-14 2013-04-03 광주과학기술원 Mpeg-v의 아키텍쳐를 통한 촉각 정보 표현 방법 및 촉각 정보 전송 시스템
KR102188851B1 (ko) * 2018-10-31 2020-12-11 한국과학기술연구원 가상 객체와의 상호작용에 따른 손등 촉감 피드백 전달 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100209423B1 (ko) * 1996-10-23 1999-07-15 전주범 포스피드백 기능을 갖는 개선된 가상현실 입력장치
KR100670792B1 (ko) * 2004-12-07 2007-01-17 한국전자통신연구원 핸드 인터페이스를 이용한 가상 생산 시스템 및 그 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436280B2 (en) 2010-01-07 2016-09-06 Qualcomm Incorporated Simulation of three-dimensional touch sensation using haptics
KR20150041548A (ko) * 2013-10-08 2015-04-16 삼성전자주식회사 증강 현실을 제공하는 방법 및 컴퓨팅 디바이스
US9354705B2 (en) 2014-08-25 2016-05-31 Yeonhab Precision Co., Ltd. Integrated haptic feedback simulating device using kinesthesia providing module including magnetorheological fluid and thin-film-type tactile sensation providing module
KR20180044148A (ko) * 2016-10-21 2018-05-02 한국기술교육대학교 산학협력단 햅틱 글로브
US11188150B2 (en) 2017-12-22 2021-11-30 Korea University Of Technology And Education Industry-University Cooperation Foundation Haptic tool system
WO2019241017A1 (en) * 2018-06-15 2019-12-19 Immersion Corporation A kinesthetically enabled glove
US10613626B2 (en) 2018-06-15 2020-04-07 Immersion Corporation Kinesthetically enabled glove
KR101972569B1 (ko) * 2018-06-20 2019-04-29 주식회사 풀다이브테크놀로지 비현실 촉감 전달 글러브
CN114619445A (zh) * 2022-03-11 2022-06-14 北京理工大学 抓取系统
CN114619445B (zh) * 2022-03-11 2024-05-03 北京理工大学 抓取系统

Also Published As

Publication number Publication date
KR100906576B1 (ko) 2009-07-10

Similar Documents

Publication Publication Date Title
KR20090064968A (ko) 핸드 햅틱 인터페이스 장치 및 방법
Tang et al. Construction of force haptic reappearance system based on Geomagic Touch haptic device
Burdea Haptics issues in virtual environments
El Saddik et al. Haptics technologies: Bringing touch to multimedia
Hale et al. Deriving haptic design guidelines from human physiological, psychophysical, and neurological foundations
Iwata et al. Project FEELEX: adding haptic surface to graphics
Haban et al. Global events and global breakpoints in distributed systems
Massie Initial haptic explorations with the phantom: Virtual touch through point interaction
Gannon et al. Tactum: a skin-centric approach to digital design and fabrication
Eid et al. A guided tour in haptic audio visual environments and applications
Withana et al. ImpAct: Immersive haptic stylus to enable direct touch and manipulation for surface computing
Salisbury Jr Making graphics physically tangible
Cui et al. Mid-air interaction with optical tracking for 3D modeling
Korida et al. An interactive 3D interface for a virtual ceramic art work environment
Sziebig et al. Vibro-tactile feedback for VR systems
Falcao et al. Applications of haptic devices & virtual reality in consumer products usability evaluation
Yadav et al. Haptic science and technology
KR100670792B1 (ko) 핸드 인터페이스를 이용한 가상 생산 시스템 및 그 방법
Bayousuf et al. Haptics-based systems characteristics, classification, and applications
Normand et al. Visuo-Haptic Rendering of the Hand during 3D Manipulation in Augmented Reality
Sener et al. Towards' virtual clay'modelling-challenges and recommendations: a brief summary of the literature
Pereira et al. Flexdglove: A low cost dataglove with virtual hand simulator for virtual reality applications
Rise et al. The potential of gesture-based interaction
Durlach et al. Virtual environment technology for training (VETT)
Sulema Haptic interaction in educational applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee