KR100934391B1 - Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices - Google Patents

Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices Download PDF

Info

Publication number
KR100934391B1
KR100934391B1 KR1020070129727A KR20070129727A KR100934391B1 KR 100934391 B1 KR100934391 B1 KR 100934391B1 KR 1020070129727 A KR1020070129727 A KR 1020070129727A KR 20070129727 A KR20070129727 A KR 20070129727A KR 100934391 B1 KR100934391 B1 KR 100934391B1
Authority
KR
South Korea
Prior art keywords
hand
information
collision
virtual
haptic device
Prior art date
Application number
KR1020070129727A
Other languages
Korean (ko)
Other versions
KR20090062461A (en
Inventor
김용완
장용석
손욱호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070129727A priority Critical patent/KR100934391B1/en
Publication of KR20090062461A publication Critical patent/KR20090062461A/en
Application granted granted Critical
Publication of KR100934391B1 publication Critical patent/KR100934391B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

본 발명에 따른 6자유도 햅틱 장치를 이용한 핸드 기반의 잡기 인터랙션 시스템은, 손가락 및 손 위치 변화에 따른 손 트래킹 정보를 생성하며, 역감 정보에 의거하여 손의 위치 및 회전 반력감을 제어하는 하드웨어부와, 손 트래킹 정보를 이용하여 가상 환경 내 가상 손 모델을 제어하고, 가상 손 모델과 객체간의 충돌 발생 시 충돌 객체 정보를 생성하는 충돌 처리부와, 충돌 처리부로부터 충돌 객체 정보를 제공받고, 객체의 고유 특성을 기반으로 충돌 발생에 따른 가상 손 모델과 객체의 운동 정보를 제공하는 동역학 처리부와, 운동 정보에 의거하여 가상 환경 데이터를 업데이트시키고, 업데이트에 따른 가상 손 모델의 변화에 의거한 핸드 관절 정보를 생성하는 물리 기반 동작 가시화부와, 핸드 관절 정보를 토대로 역감 정보를 장치부에 제공하여 손의 위치 및 회전 반력감을 제어하는 역감 렌더링부를 포함한다.The hand-based catching interaction system using the 6-degree of freedom haptic device according to the present invention comprises a hardware unit for generating hand tracking information according to a change in the position of a finger and a hand, and controlling the position and rotational reaction of the hand based on the force information. , Using a hand tracking information to control the virtual hand model in the virtual environment, a collision processing unit for generating collision object information when a collision occurs between the virtual hand model and the object, receiving collision object information from the collision processing unit, and unique characteristics of the object A dynamics processor which provides the motion information of the virtual hand model and the object according to the collision, and updates the virtual environment data based on the motion information, and generates the hand joint information based on the change of the virtual hand model according to the update. The physical-based motion visualization unit, and the sense of force information is provided to the device unit based on the hand joint information. It includes a force rendering unit for controlling the position of the hand and the sense of rotation reaction force.

이와 같이, 본 발명은 가상품평 및 가상 훈련과 같은 애플리케이션에서 햅틱 장비를 이용하여 잡기 동작을 시뮬레이션함으로써, 자연스럽고 직접적인 인터랙션을 제공 할 수 있다.As such, the present invention can provide a natural and direct interaction by simulating a grabbing operation using haptic equipment in applications such as provisional review and virtual training.

Description

6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템{Grasping Interaction using 6DOF Haptic Device and Method Thereof}Grasp Interaction using 6DOF Haptic Device and Method Thereof}

본 발명은 햅틱 장치를 이용해 가상 환경과의 핸드 기반 잡기 인터랙션을 할 수 있는 시스템에 관한 것으로, 더욱 상세하게는 현실 공간의 핸드의 손가락 및 손 전체의 움직임을 추적하고, 이를 이용하여 가상 공간의 가상 손 모델을 정교하고 세밀하게 제어하여 사용자가 가상 환경과 자연스럽게 인터랙션할 수 있는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템에 관한 것이다.The present invention relates to a system capable of hand-based grabbing interaction with a virtual environment using a haptic device, and more particularly, to track the movement of a finger and the entire hand of a hand in the real space, and using this to virtualize the virtual space. The present invention relates to a hand-based grabbing interaction system using a six degree of freedom haptic device that enables a user to interact naturally with a virtual environment by precisely and precisely controlling a hand model.

핸드 기반 잡기 인터랙션 기술은 인간의 손과 가상 환경의 각 객체들 간의 인터랙션에 관한 기술을 말한다. 이러한 핸드 기반 잡기 인터랙션 기술은 기존의 시각 및 청각적 효과를 보완하여 한 차원 높은 사실감을 제공하는 인간 중심의 인터랙션 기술로 게임 등의 분야에서 많이 사용되고 있다. 특히 가상적 제품 생산 과정 중 가상 품평과 같은 현실감 있는 인터랙션을 필요로 하는 응용 애플리케이션에서는 가상 환경 내에서의 가상 객체의 특성에 따라 다양한 잡기 인터랙션이 필요 로 하게 된다.Hand-based grabbing interaction technology refers to a technology relating to the interaction between the human hand and each object of the virtual environment. The hand-based catching interaction technology is a human-oriented interaction technology that provides a higher level of realism by supplementing existing visual and auditory effects, and is widely used in the field of games and the like. In particular, application applications that require realistic interactions such as virtual review during the virtual product production process require various catching interactions according to the characteristics of virtual objects in the virtual environment.

상기 핸드 인터페이스 기술에 관한 첫 번째 종래 기술로 한국특허공개공보 2002-0096807, 장갑형 데이터 입력 장치 및 그 인식 방법은, 손가락 부의 압력 센서를 이용한 핸드폰이나 키보드의 데이터 입력을 위한 것으로, 소형 단말 장치의 데이터 입력이 용이하도록 하는 장점이 있다. As the first conventional technology related to the hand interface technology, Korean Patent Laid-Open Publication No. 2002-0096807, Armored data input device and a recognition method thereof are for inputting data of a mobile phone or a keyboard using a pressure sensor of a finger, and the data of a small terminal device. There is an advantage to facilitate input.

두 번째 종래 기술로 한국특허공개공보 2001-0023426, 데이터 처리 시스템과의 대화를 위한 손가락 없는 글로브는, 사용자의 손가락 만곡을 감지하기 위한 만곡 센서 및 특정 범위의 각도로의 만곡을 탐지하는 센서와 가속도 센서를 이용하여 휴대 환경에서 컴퓨터의 특정 항목을 선택하기 위한 간단한 가상 타이핑의 효과를 줄 수 있다. As a second conventional technique, Korean Patent Laid-Open Publication No. 2001-0023426, a fingerless globe for dialogue with a data processing system includes a curved sensor for detecting a user's finger curve and a sensor for detecting a curve at a specific range of angle and acceleration. Sensors can be used to give the effect of simple virtual typing to select specific items on a computer in a portable environment.

미국특허공개공보 2004/0164880 A1, Wearable Data Input Device Employing Wrist and Finger Movements는, 일반적 키보드를 이용한 정보 입력을 대체할 수 있도록 손목 및 손가락 움직임을 위한 스위치형 센서를 내장하여 키 자판의 위치를 알아내는 효과를 줄 수 있는 것이 글로브 형태의 인터페이스 장치. 손목의 움직임 및 손가락의 움직임과 키보드 자판의 배열을 매핑하여 키 입력 수단으로 쓸 수 있다. U.S. Patent Publication No. 2004/0164880 A1, Wearable Data Input Device Employing Wrist and Finger Movements, uses a switchable sensor for wrist and finger movement to replace the input of information using a common keyboard to locate the key keyboard. Globe-type interface device that can be effective. Wrist movements, finger movements, and keyboard layouts can be mapped and used as key input means.

그러나, 첫 번째 종래 기술은 제품의 가상 디자인, 품평, 조립 등을 시뮬레이션 할 수 있는 높은 사실성의 잡기 인터랙션 방법을 지원하지 못하는 단점이 있다.However, the first conventional technology has a disadvantage in that it does not support a high-reality catching interaction method capable of simulating a virtual design, evaluation, assembly, etc. of a product.

두 번째 종래 기술은 가상 디자인, 품평, 조립 등 높은 실제감을 요구하는 환경에 사용될 수 있는 상호작용 인터페이스로 활용되기에 부족한 점이 있으며, 세 번째 종래 기술은 정밀한 잡기 지원을 통한 가상 현실 객체의 조작에 적합지 않다.The second conventional technology is insufficient to be used as an interactive interface that can be used in an environment requiring high realism, such as virtual design, evaluation, and assembly, and the third conventional technology is suitable for manipulating virtual reality objects through precise grabbing support. not.

이런 이유로 가상 품평이나 가상 훈련과 같은 높은 사실감과 원활한 인터랙션이 지원되어야 하는 작업 환경에서의 가상 현실 어플리게이션에서는 현실 공간과 일치되는 자연스럽고 직접적인 인터랙션이 방법이 지원되는 시스템이 적실히 요구되고 있다.For this reason, virtual reality applications in a work environment where high realism and smooth interaction such as virtual review and virtual training are supported require a system that supports a natural and direct interaction method that matches the real space.

본 발명은 객체의 고유 특성을 반영하여 직관적이고 경험을 이용한 구속 기반의 잡기 방법과 실제 마찰, 중력, 탄성 등과 같은 물리 요소를 반영한 물리기반의 잡기 방법과 같은 인터랙션이 선택적으로 적용된 시스템을 제공한다.The present invention provides a system to which interactions such as an intuitive and empirical constraint-based grabbing method reflecting the unique characteristics of an object and a physics-based grabbing method reflecting physical elements such as actual friction, gravity, and elasticity are selectively applied.

본 발명에 따른 6자유도 햅틱 장치를 이용한 핸드 기반의 잡기 인터랙션 시스템은, 손가락 및 손 위치 변화에 따른 손 트래킹 정보를 생성하며, 역감 정보에 의거하여 손의 위치 및 회전 반력감을 제어하는 하드웨어부와, 상기 손 트래킹 정 보를 이용하여 가상 환경 내 가상 손 모델을 제어하고, 상기 가상 손 모델과 객체간의 충돌 발생 시 충돌 객체 정보를 생성하는 충돌 처리부와, 상기 충돌 처리부로부터 충돌 객체 정보를 제공받고, 상기 객체의 고유 특성을 기반으로 상기 충돌 발생에 따른 상기 가상 손 모델과 상기 객체의 운동 정보를 제공하는 동역학 처리부와, 상기 운동 정보에 의거하여 상기 가상 환경 데이터를 업데이트시키고, 상기 업데이트에 따른 상기 가상 손 모델의 변화에 의거한 핸드 관절 정보를 생성하는 물리 기반 동작 가시화부와, 상기 핸드 관절 정보를 토대로 상기 역감 정보를 상기 장치부에 제공하여 상기 손의 위치 및 회전 반력감을 제어하는 역감 렌더링부를 포함한다.The hand-based catching interaction system using the 6-degree of freedom haptic device according to the present invention comprises a hardware unit for generating hand tracking information according to a change in the position of a finger and a hand, and controlling the position and rotational reaction of the hand based on the force information. A collision processor configured to control a virtual hand model in a virtual environment using the hand tracking information, generate collision object information when a collision occurs between the virtual hand model and an object, and receive collision object information from the collision processor; A dynamics processor which provides the virtual hand model according to the collision and the motion information of the object based on a unique characteristic of the object, and updates the virtual environment data based on the motion information, and the virtual hand according to the update A physical-based motion visualization unit for generating hand joint information based on a model change; And a force generator for providing the force information to the device based on the hand joint information to control the position and the rotational reaction force of the hand.

본 발명은 가상품평 및 가상 훈련과 같은 애플리케이션에서 햅틱 장비를 이용하여 잡기 동작을 시뮬레이션함으로써, 자연스럽고 직접적인 인터랙션을 제공 할 수 있기 때문에 종래의 3차원 시각 정보에만 의존하는 가상 환경 애플리케이션에서 벗어나 핸드 기반의 인터랙션을 통해 직관적으로 제품을 디자인하고 품평, 조립 등을 할 수 있는 시뮬레이션 환경을 제공하는 효과가 있다.The present invention provides a natural and direct interaction by using haptic equipment to simulate a grab motion in applications such as hypothetical review and virtual training, and thus provides a hand-based approach to virtual environment applications that rely only on conventional three-dimensional visual information. Interactions have the effect of providing a simulation environment for intuitive product design, evaluation, and assembly.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 아울러 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체 적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명의 바람직한 실시 예에서는 가상 훈련과 같은 애플리케이션에서 햅틱 장비를 이용하여 잡기 동작을 시뮬레이션할 수 있는 시스템에 대해 설명한다.In the preferred embodiment of the present invention, a system that can simulate a catching motion using haptic equipment in an application such as virtual training will be described.

도 1은 본 발명의 바람직한 실시 예에 따라 6 자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템을 도시한 블록도로서, 핸드 인터페이스(110) 및 손 전체에 위치 및 회전 반력감을 주기는 6자유도 햅틱 장치(120)및 6 자유도 햅틱 장치(120)가 탑재되는 탑재 장치(130)를 포함하는 하드웨어부(100)와 가상 객체와의 충돌 감지 시 핸드 시뮬레이션을 통한 잡기 및 역감 처리를 수행하는 소프트웨어부(150)를 포함한다. 여기서, 소프트웨어부(150)와 하드웨어부(100)는 햅틱 장치 드라이버(170)를 통해 연결된다.1 is a block diagram illustrating a hand-based grabbing interaction system using a six degree of freedom haptic device according to a preferred embodiment of the present invention. The hardware unit 100 including the device 120 and the mounting device 130 on which the 6 degrees of freedom haptic device 120 is mounted, and a software unit for performing catching and reverse processing through hand simulation when a collision with a virtual object is detected. And 150. Here, the software unit 150 and the hardware unit 100 are connected through the haptic device driver 170.

이러한 본 발명의 바람직한 실시 예에 따른 시스템은 객체의 고유 특성을 반영하여 직관적이고, 경험을 이용한 구속 기반의 잡기 방법과 실제 마찰, 중력, 탄성 등과 같은 물리 요소를 반영한 물리 기반의 잡기 방법과 같은 인터랙션이 선택적으로 적용된다.Such a system according to a preferred embodiment of the present invention is intuitive, reflecting the unique characteristics of the object, and interactions such as a constraint-based catching method using experience and a physical-based catching method reflecting physical elements such as actual friction, gravity, and elasticity. This is optional.

하드웨어부(100)는 핸드 인터페이스(110)를 이용하여 손가락 관절의 움직임을 감지하고, 6자유도 햅틱 장치(120)를 통해 손 전체에 반력감을 전달한다.The hardware unit 100 senses the movement of the finger joint using the hand interface 110 and transmits a reaction force to the entire hand through the six degree of freedom haptic device 120.

핸드 인터페이스(110)는 장갑 형태의 글로브로서, 사용자의 손 동작에 관한 손가락 관절각을 측정하는 초소형 절대 위치 센서가 부착되어 있으며, 초소형 절대 위치 센서에 의해 감지된 아날로그 신호, 즉 각 손가락의 관절의 구부러짐 값에 대한 신호를 기반으로 각 손가락의 관절각을 계산한다. 이렇게 계산된 관절각을 이용하여 가상 손 모델의 움직임을 제어하고, 가상 손 모델과 가상 환경 내의 객체와 인터랙션을 수행한다.The hand interface 110 is a glove-shaped globe, and is equipped with a micro absolute sensor that measures a finger joint angle with respect to a user's hand movement, and an analog signal sensed by the micro absolute sensor, that is, the joint of each finger. Calculate the joint angle of each finger based on the signal for the bend value. The calculated joint angles are used to control the movement of the virtual hand model and to interact with the virtual hand model and the objects in the virtual environment.

6자유도 햅틱 장치(120)는 손 위치 정보 및 회전 정보를 검출하고, 소프웨어부(150)로부터 제공되는 역감 정보를 토대로 손 위치 및 회전을 제어함으로서 손의 회전 반력감을 제어할 수 있다.The six-degree of freedom haptic device 120 may detect the hand position information and the rotation information, and control the hand reaction force by controlling the hand position and the rotation based on the inverse information provided from the software unit 150.

이러한 6자유도 햅틱 장치(120)는, 도 2에 도시된 바와 같이, 손 전체의 위치 및 회전 반력감을 제어하기 위해 3 자유도의 위치 제어 기구 및 3 자유도의 자세 제어 기구로 구성된다. 3자유도의 위치 제어를 위해 Base Rotate(위치 제어 제1축)(200), Main Link(위치 제어 제 2축)(201), Sub Link(위치 제어 제3축)(202)으로 구성되어 있고, 3자유도의 자세 제어를 위해 Hand Roll(손목 회전 제1축)(210), Hand Pitch(손목 회전 제2축)(211), Hand Yaw(손목 회전 제 3축)(212)으로 구성된다. The six degrees of freedom haptic device 120, as shown in Figure 2, is composed of a position control mechanism of three degrees of freedom and three degrees of freedom attitude control mechanism to control the position and rotational reaction of the entire hand. It is composed of Base Rotate (position control first axis) 200, Main Link (position control second axis) 201, Sub Link (position control third axis) 202 for position control of three degrees of freedom, It consists of a hand roll (first wrist rotation) (210), a hand pitch (second wrist rotation) 211, and a hand yaw (third rotation wrist) 212 for the posture control of three degrees of freedom.

자세제어 기구의 3개의 축(210, 211, 212)으로 이루어진 운동은 한 점에 대해 서로 직각을 이루는 3개의 회전축의 운동으로 표현한다. The motion consisting of three axes 210, 211, and 212 of the attitude control mechanism is represented by the motion of three rotational axes perpendicular to each other with respect to a point.

위치 제어 기구의 3개의 축(200, 201, 202)으로 이루어진 운동은 두 계를 가진 반구 형태를 가지게 된다. 자세제어 기구는 손의 자세, 즉 방향을 나타내고, 위치제어 기구는 손의 공간상의 위치를 나타낸다. The movement consisting of three axes 200, 201, 202 of the position control mechanism is in the form of a hemisphere with two systems. The posture control mechanism represents the posture of the hand, that is, the direction, and the position control mechanism represents the position of the hand in space.

이와 같은 조합을 통해 기구를 제어하기 쉽게 해줄 뿐만 아니라 손의 위치 및 회전 정보를 검출하고, 기구의 제어를 통해 손의 위치 및 회전을 제어하여 손의 회전 반력감을 제어할 수 있다.This combination makes it easier to control the instrument, and detects the position and rotation information of the hand, and controls the position and rotation of the hand through the control of the instrument to control the sense of reaction force of the hand.

이러한 6자유도 햅틱 장치(120)는 도 3a에 도시된 바와 같은 전후좌우이동 가능한 탑재 장치(130)에 탑재됨으로서, 사용자의 공간 상 이동에 따라 6자유도 햅틱 장치(120)도 탑재 장치에 의해 함께 이동함으로서, 일정 지점에 고정되었을 때보다 더욱 넓은 활동 범위를 보정한다. 이러한 탑재 장치(120)는, 전원(300), 콘트롤러(302), 모터(304), 엔코더(306) 및 다리 모듈(308)로 구성된다. 다리 모듈(308)은, 도 4b에 도시된 바와 같이, 직진 입력, 조향 입력이 가능하도록, 직진 입력(310), 조향 입력(312), 직진 출력 바퀴(314), 조향 출력 바디(316), 조향 고정 바디(318) 및 직진 보조 바퀴(320)를 포함한다.The six degrees of freedom haptic device 120 is mounted on the mounting device 130, which can move back and forth, left and right as shown in Figure 3a, the six degrees of freedom haptic device 120 is also mounted by the mounting device in accordance with the user's movement in space By moving together, it compensates for a wider range of activity than when fixed at a point. This mounting apparatus 120 is composed of a power supply 300, a controller 302, a motor 304, an encoder 306, and a bridge module 308. The leg module 308 includes a straight input 310, a steering input 312, a straight output wheel 314, a steering output body 316, to enable straight input and steering input, as shown in FIG. 4B. A steering stationary body 318 and a straight secondary wheel 320.

이러한 핸드 인터페이스(110)에서 계산된 손가락의 관절각과 6자유도 햅틱 장치(120)에서 검출된 손의 위치 및 회전 정보는 햅틱 장치 드라이버(170)를 통해 소프웨어부(150)에 제공된다. 여기서, 손가락의 관절각과 6자유도 햅틱 장치(120)에서 검출된 손의 위치 및 회전 정보를 손 트래킹 정보라고 정의한다.The joint angle of the finger calculated by the hand interface 110 and the position and rotation information of the hand detected by the six degree of freedom haptic device 120 are provided to the software unit 150 through the haptic device driver 170. Here, the position and rotation information of the hand detected by the joint angle of the finger and the six degrees of freedom haptic device 120 are defined as hand tracking information.

소프트웨어부(150)는 가상 객체가 가지는 고유 특징을 기반으로 충돌 감지 시 선택적으로 두 가지의 잡기 동작을 시뮬레이션하고, 역감 렌더링을 통해 손 전체에 회전 반력감을 전달할 수 있는 6자유도 햅틱 장치(120)에 역감 정보를 전달하며, 충돌 처리부(152), 동역학 처리부(154), 물리 기반 동작 가시화부(156) 및 역감 렌더링부(158) 및 장치 제어부(160)를 포함한다.The software unit 150 selectively simulates two catching motions upon collision detection based on a unique feature of the virtual object, and transmits a sixth degree of freedom haptic device 120 to transmit a rotational reaction to the entire hand through reverse rendering. It transmits the sense of force information to, and includes a collision processing unit 152, dynamics processing unit 154, a physical-based motion visualization unit 156, a force rendering unit 158 and the device control unit 160.

여기서, 동역학 처리부(154)는 가상 객체의 고유 특성에 따라 동작되는 구성 기반 인터랙션 모듈(154a) 및 물리 기반 인터랙션 모듈(154b)로 구성된다.Here, the dynamics processing unit 154 is composed of a configuration-based interaction module 154a and a physical-based interaction module 154b that operate according to the unique characteristics of the virtual object.

소프트웨어부(150)의 충돌 처리부(152)는 손 트래킹 정보 및 가상 환경 제작부(미도시됨)에서 제공된 가상 환경 데이터를 입력받아 가상 손 모델 및 가상 환경 제어를 위한 변환 매트릭스를 갱신하며, 실시간 충돌 처리 및 손동작간의 인터랙션 처리를 수행한다. 여기서, 충돌 처리부(152)는 사실적이고 정확한 손의 보정 작업을 위해 가변경 피부 변형 기법을 적용하여 부드러운 관절을 표현한 가상 손 모델을 제어하는데, 가상 손 모델 제어는 인체학 기반의 손가락 움직임 실측값의 보정을 통해 이루어진다.The collision processing unit 152 of the software unit 150 receives the hand tracking information and the virtual environment data provided from the virtual environment production unit (not shown), updates the virtual hand model and the transformation matrix for controlling the virtual environment, and performs real-time collision processing. And interaction processing between hand gestures. In this case, the collision processor 152 controls the virtual hand model expressing the smooth joint by applying a changeable skin deformation technique for realistic and accurate hand correction work. This is done through calibration.

특히, 충돌 처리부(152)는 실감도를 증가시키기 위해 약 수백만 폴리곤 데이터 모델과 가상 핸드 모델 사이의 충돌 처리 계산을 실시간으로 처리하며, 이를 위하여 가상 환경 데이터를 씬그라프 구조로 로딩하여 실시간 충동을 위한 계층적 충돌 탐색 기법을 지원한다. 여기서, 충돌 처리부(152)에서 지원하는 계층적 충돌 탐색 기법은 대용량 데이터 모델과 실시간 충돌 처리를 위하여 관심이 되는 부분 객체를 미리 분류하여 처리하는 방법으로서, 이를 통해 실시간 작업에 필요한 계산 시간을 단축할 수 있다.In particular, the collision processor 152 processes collision processing calculations between the millions of polygon data models and the virtual hand models in real time in order to increase the sensitivity, and for this purpose, the virtual environment data is loaded into a scene graph structure for real-time impulse. Hierarchical collision detection is supported. Here, the hierarchical collision searching technique supported by the collision processing unit 152 is a method of pre-classifying and processing partial objects of interest for a large data model and real-time collision processing, thereby reducing computation time required for real-time work. Can be.

이러한 충돌 처리부(152)는 손 트래킹 정보를 이용하여 가상 환경 내 가상 손 모델을 제어하고, 가상 손 모델과 객체간의 충돌 발생 시 충돌 객체 정보를 생성하여 동역학 처리부(154)에 제공한다.The collision processor 152 controls the virtual hand model in the virtual environment by using the hand tracking information, generates collision object information when a collision occurs between the virtual hand model and the object, and provides the generated dynamic object to the dynamics processor 154.

동역학 처리부(154)는 충돌 객체 정보를 토대로 충돌 발생에 따른 가상 손 모델과 객체의 운동 정보를 생성하여 물리 기반 동작 가시화부(156)에 제공한다.The dynamics processing unit 154 generates the virtual hand model and the motion information of the object according to the collision occurrence based on the collision object information and provides it to the physical-based motion visualization unit 156.

여기서, 동역학 처리부(154)는 객체의 고유 특성에 따라 동작되는 구속 기반 모듈(154a) 및 물리 기반 모듈(154b) 중 어느 하나를 선택적으로 동작시키는데, 구속 기반 모듈(154a)은 객체가 자동차의 핸들, 기어스틱, 문 및 글로브 박스 등과 같이 특정 축 방향으로 구속되는 특성을 지닌 경우 구속 기반의 잡기 인터랙션을 적용하는 모듈로서, 객체와의 충동 시 미리 정의되어 있는 객체의 중심점을 기준으로 가상 손 모델의 위치와 각도를 제어한다.Here, the dynamics processing unit 154 selectively operates any one of the constraint based module 154a and the physics based module 154b operated according to the unique characteristics of the object. Module that applies constraint-based grabbing interaction when the object is constrained in a specific axial direction such as, gearstick, door and glove box. Control position and angle.

물리 기반 모듈(154b)은 객체가 핸드폰과 같은 모든 전 방향으로 자유로운 움직임이 가능한 특성을 지닌 경우 물리 기반의 잡기 방법을 적용하는 모듈로서, 손 트래킹 정보가 그대로 반영된 가상 손 모델과 물리 속성을 지닌 가상 손 모델 사이를 스프링 및 조인트로 연결한다. 이때, 가상 객체와 인터랙션 시 손의 동작에 따라 스프링에 연결된 가상 손 모델은 가상 객체와 충돌 검사를 수행하지 않고 스프링으로 연결된 종속된 손은 충돌 검사 및 동역학 시뮬레이션에 영향을 받게 된다. 따라서, 가상 객체와의 인터랙션 시 트래킹 손(실제)의 동작에 따라 손 트래킹 정보에 의거하여 동작하는 가상 손 모델은 최대한 비슷한 동작을 묘사하지만 가상 객체와의 충돌 발생 시 객체의 표면에 적절히 투영된다. The physics-based module 154b is a module that applies a physics-based grabbing method when an object has a characteristic capable of freely moving in all directions, such as a mobile phone. A physics-based module 154b includes a virtual hand model and physical properties in which hand tracking information is reflected. Connect between hand models with springs and joints. At this time, the virtual hand model connected to the spring does not perform the collision check with the virtual object according to the motion of the hand when interacting with the virtual object, and the dependent hand connected with the spring is affected by the collision check and the dynamic simulation. Therefore, the virtual hand model operating based on the hand tracking information according to the motion of the tracking hand (actual) when interacting with the virtual object describes the similar motion as much as possible, but is properly projected on the surface of the object when a collision with the virtual object occurs.

이러한 방법을 통해 마찰, 탄성, 중력 등의 다양한 물리 요소를 반영하여 실제와 같이 객체를 손안에서 조작해 볼 수 있다.In this way, you can manipulate objects in the palm of your hand as if it were real by reflecting various physical elements such as friction, elasticity and gravity.

이러한 과정을 통해 구속 기반 인터랙션 모듈(154a) 및 물리 기반 인터랙션 모듈(154b)은 충돌 발생에 따른 가상 손 모델과 객체의 운동 정보를 생성하는데, 즉 구속 기반 인터랙션 모듈(154a)은 객체의 중심점을 기준으로 가상 손 모델의 위치와 각도를 제어를 통해 획득한 가상 손 모델과 객체의 운동 정보를 생성하여 물리 기반 동작 가시화부(156)에 제공하며, 물리 기반 인터랙션 모듈(154b)은 손 트래킹 정보에 의거하여 동작하는 가상 손 모델의 움직임에 따른 객체와 가상 손 모델의 운동 정보를 생성하여 물리 기반 동작 가시화부(156)에 제공한다.Through this process, the constraint-based interaction module 154a and the physical-based interaction module 154b generate the virtual hand model and the motion information of the object according to the collision, that is, the constraint-based interaction module 154a is based on the center point of the object. By generating the motion information of the virtual hand model and the object obtained by controlling the position and angle of the virtual hand model to the physical-based motion visualization unit 156, the physical-based interaction module 154b is based on the hand tracking information By generating the motion information of the object and the virtual hand model according to the motion of the virtual hand model to operate to provide to the physical-based motion visualization unit 156.

물리 기반 동작 가시화부(156)는 운동 정보를 토대로 가상 환경 데이터를 업데이트시키고, 업데이트에 따른 상기 가상 손 모델의 변화를 토대로 핸드 관절 정보를 생성한 후 이를 역감 렌더링부(158)에 제공한다.The physical-based motion visualization unit 156 updates the virtual environment data based on the motion information, generates the hand joint information based on the change of the virtual hand model according to the update, and provides the generated hand joint information to the desensitization rendering unit 158.

역감 렌더링부(158)는 핸드 관절 정보를 토대로 역감 정보, 예컨대 손 전체 위치 및 회전 반력감 등을 계산한 후 이를 장치 제어부(160)를 통해 연결된 6자유도 햅틱 장치(120)에 제공한다. The sensitization rendering unit 158 calculates the sensitization information, for example, the overall position of the hand and the sense of rotation reaction force, based on the hand joint information, and provides the same to the six degree of freedom haptic device 120 connected through the device controller 160.

이에 따라, 6자유도 햅틱 제어 장치(120)는 역감 정보를 토대로 손 전체의 위치를 제어하고, 실제 손에 제공되는 회전 반력감을 제어함으로서, 가상 손 모델이 가상 객체 안으로 실제 손이 뚫고 들어가지 못하게 할 수 있다.Accordingly, the 6-degree of freedom haptic control device 120 controls the position of the entire hand based on the adverse reaction information and controls the rotational reaction force provided to the actual hand, thereby preventing the virtual hand model from actually entering the virtual object. can do.

본 발명의 바람직한 실시 예에 따르면, IPTV 서비스를 제공함에 있어서 가입자들로 하여금 방송 컨텐츠를 제어할 수 있는 기능을 제공한다.According to a preferred embodiment of the present invention, in providing an IPTV service, a subscriber may provide a function for controlling broadcast content.

지금까지 본 발명의 실시예에 국한하여 설명하였으나 본 발명의 기술이 당업자에 의하여 용이하게 변형 실시될 가능성이 자명하다. 이러한 변형된 실시 예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.The present invention has been limited to the embodiments of the present invention, but it is obvious that the technology of the present invention can be easily modified by those skilled in the art. Such modified embodiments should be included in the technical spirit described in the claims of the present invention.

도 1은 본 발명의 바람직한 실시 예에 따라 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템을 도시한 도면이며,1 is a diagram illustrating a hand-based grabbing interaction system using a six degree of freedom haptic device according to an embodiment of the present invention.

도 2는 본 발명에 따른 6자유도 햅틱 장치의 위치 및 회전 반력 기구부 상세 구성도이며,Figure 2 is a detailed configuration of the position and rotation reaction mechanism of the six degree of freedom haptic device according to the present invention,

도 3a 내지 도 3b는 본 발명에 따른 6자유도 햅틱 장치의 모바일 이동 장치의 상세 구성도이다.3A to 3B are detailed configuration diagrams of a mobile mobile device of a six degree of freedom haptic device according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the code | symbol about the principal part of drawing>

100 : 하드웨어부 110 : 핸드 인터페이스100: hardware unit 110: hand interface

120 : 6자유도 햅틱 장치 130 : 탑재 장치120: 6 degree of freedom haptic device 130: mounting device

150 : 소프트웨어부 152 : 장치 제어부150: software unit 152: device control unit

154 : 충돌 처리부 156 : 동역학 처리부154: collision processing unit 156: dynamics processing unit

158 : 물리 기반 동작 가시화부 160 : 역감 렌더링부158: physics-based motion visualization unit 160: force rendering unit

170 : 햅틱 장치 드라이버170: Haptic Device Driver

Claims (7)

손가락 및 손 위치 변화에 따른 손 트래킹 정보를 생성하며, 역감 정보에 의거하여 손의 위치 및 회전 반력감을 제어하는 하드웨어부와,A hardware unit for generating hand tracking information according to a change in the position of a finger and a hand, and for controlling the position and rotational reaction of the hand based on the force information; 상기 손 트래킹 정보를 이용하여 가상 환경 내 가상 손 모델을 제어하고, 상기 가상 손 모델과 객체간의 충돌 발생 시 충돌 객체 정보를 생성하는 충돌 처리부와,A collision processor configured to control a virtual hand model in a virtual environment using the hand tracking information, and generate collision object information when a collision occurs between the virtual hand model and an object; 상기 충돌 처리부로부터 충돌 객체 정보를 제공받고, 상기 객체의 고유 특성을 기반으로 상기 충돌 발생에 따른 상기 가상 손 모델과 상기 객체의 운동 정보를 제공하는 동역학 처리부와,A dynamics processor configured to receive collision object information from the collision processor, and to provide motion information of the virtual hand model and the object according to the collision based on the unique characteristics of the object; 상기 운동 정보에 의거하여 상기 가상 환경 데이터를 업데이트시키고, 상기 업데이트에 따른 상기 가상 손 모델의 변화에 의거한 핸드 관절 정보를 생성하는 물리 기반 동작 가시화부와,A physical-based motion visualization unit for updating the virtual environment data based on the motion information and generating hand joint information based on a change of the virtual hand model according to the update; 상기 핸드 관절 정보를 토대로 상기 역감 정보를 계산한 후 이를 상기 하드웨어부에 제공하여 상기 손의 위치 및 회전 반력감을 제어하는 역감 렌더링부Calculation unit for calculating the force information based on the hand joint information and providing it to the hardware unit to control the position and rotation reaction force of the hand 를 포함하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.Hand-based grabbing interaction system using a six degree of freedom haptic device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 하드웨어부는,The hardware unit, 상기 손가락의 관절각 정보를 상기 충돌 처리부에 제공하기 위한 핸드 인터 페이스와,A hand interface for providing the joint angle information of the finger to the collision processing unit; 상기 손의 위치 정보를 상기 충돌 처리부에 제공하며, 상기 역감 정보에 의거하여 상기 손의 위치 및 반력감을 제어하는 6자유도 햅틱 장치A six degree of freedom haptic device that provides position information of the hand to the collision processor and controls the position and reaction force of the hand based on the force information. 를 포함하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.Hand-based grabbing interaction system using a six degree of freedom haptic device comprising a. 제 2 항에 있어서,The method of claim 2, 상기 6자유도 햅틱 장치는,The six degrees of freedom haptic device, 상기 손의 위치를 제어하기 위한 위치 제어 1, 2, 3 축과,Position control 1, 2 and 3 axes for controlling the position of the hand; 상기 손의 자세를 제어하기 위한 손목 회전 제 1, 2, 3 축Wrist rotation first, second and third axis for controlling the position of the hand 을 포함하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.Hand-based grabbing interaction system using a six degree of freedom haptic device comprising a. 제 3 항에 있어서,The method of claim 3, wherein 상기 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템은, The hand-based grabbing interaction system using the six degrees of freedom haptic device, 상기 6자유도 햅틱 장치가 탑재 가능하며, 상기 6자유도 햅틱 장치의 이동을 제어하는 탑재 장치 The 6 degree of freedom haptic device can be mounted, the mounting device for controlling the movement of the 6 degree of freedom haptic device 를 더 포함하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.Hand-based grabbing interaction system using a six degree of freedom haptic device further comprising. 제 1 항에 있어서,The method of claim 1, 상기 동역학 처리부는,The dynamics processing unit, 상기 객체의 고유 특성이 특정 축 방향으로 구속되어 고정된 경우 상기 충돌 발생 시 기 설정된 상기 객체의 중심점을 기준으로 상기 가상 손 모델의 위치와 각도를 제어하는 구속 잡기 인터랙션 모듈A constraint interaction module for controlling the position and angle of the virtual hand model based on the center point of the object preset when the collision occurs when the inherent property of the object is fixed and fixed in a specific axis direction. 을 포함하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.Hand-based grabbing interaction system using a six degree of freedom haptic device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 동역학 처리부는,The dynamics processing unit, 상기 객체의 고유 특성이 자유로운 움직임이 가능한 경우 상기 충돌 발생 시 상기 손 트래킹 정보를 토대로 상기 가상 손 모델을 제어함과 더불어 상기 가상 손 모델과 객체의 물리적 특성을 반영하여 상기 운동 정보를 제공하는 물리 기반 잡기 인터랙션 모듈When the unique characteristic of the object can be freely moved, a physical base that provides the motion information by controlling the virtual hand model based on the hand tracking information when the collision occurs and reflecting physical properties of the virtual hand model and the object. Grab Interaction Module 을 포함하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.Hand-based grabbing interaction system using a six degree of freedom haptic device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 충돌 처리부는, 가상 환경 내의 가상 그래픽 모델 데이터를 씬그라프 구조로 로딩하여 실시간 충돌을 위한 계층적 충돌 탐색 기법을 이용하여 상기 충돌 정보를 생성하는 것을 특징으로 하는 6자유도 햅틱 장치를 이용한 핸드 기반 잡기 인터랙션 시스템.The collision processing unit may load the virtual graphic model data in the virtual environment into a scene graph structure and generate the collision information using a hierarchical collision search technique for real-time collision. Catching Interaction System.
KR1020070129727A 2007-12-13 2007-12-13 Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices KR100934391B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070129727A KR100934391B1 (en) 2007-12-13 2007-12-13 Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070129727A KR100934391B1 (en) 2007-12-13 2007-12-13 Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices

Publications (2)

Publication Number Publication Date
KR20090062461A KR20090062461A (en) 2009-06-17
KR100934391B1 true KR100934391B1 (en) 2009-12-30

Family

ID=40991707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070129727A KR100934391B1 (en) 2007-12-13 2007-12-13 Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices

Country Status (1)

Country Link
KR (1) KR100934391B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101750506B1 (en) * 2016-10-05 2017-07-03 엘아이지넥스원 주식회사 Controlling method and apparatus of haptic interface
US10671169B2 (en) 2018-06-25 2020-06-02 Korea Institute Of Science And Technology Tactile feedback generating apparatus and system for virtual object manipulation
KR20200110998A (en) 2019-03-18 2020-09-28 주식회사 지엘 Virtual reality interaction hand tracking system using multiple sensors and implementation method thereof
KR20210096541A (en) * 2020-01-28 2021-08-05 한국과학기술원 Wearable tactile display device for presentation of continuous parameters using multiple skin stretch tactors and operating method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101636078B1 (en) * 2009-09-29 2016-07-05 고려대학교 산학협력단 Apparatus for Exercising using haptic technology
CN109147057A (en) * 2018-08-28 2019-01-04 北京航空航天大学 A kind of virtual hand collision checking method towards wearable haptic apparatus
KR102230421B1 (en) * 2018-12-28 2021-03-22 한국과학기술원 Apparatus and method of controlling virtual model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030085683A (en) * 2002-05-01 2003-11-07 한국과학기술원 Endoscopy training system using haptic interface and virtual reality
KR20040100011A (en) * 2003-05-21 2004-12-02 한국과학기술연구원 Parallel haptic joystick system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030085683A (en) * 2002-05-01 2003-11-07 한국과학기술원 Endoscopy training system using haptic interface and virtual reality
KR20040100011A (en) * 2003-05-21 2004-12-02 한국과학기술연구원 Parallel haptic joystick system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101750506B1 (en) * 2016-10-05 2017-07-03 엘아이지넥스원 주식회사 Controlling method and apparatus of haptic interface
US10671169B2 (en) 2018-06-25 2020-06-02 Korea Institute Of Science And Technology Tactile feedback generating apparatus and system for virtual object manipulation
KR20200110998A (en) 2019-03-18 2020-09-28 주식회사 지엘 Virtual reality interaction hand tracking system using multiple sensors and implementation method thereof
KR20210096541A (en) * 2020-01-28 2021-08-05 한국과학기술원 Wearable tactile display device for presentation of continuous parameters using multiple skin stretch tactors and operating method thereof
KR102339031B1 (en) 2020-01-28 2021-12-14 한국과학기술원 Wearable tactile display device for presentation of continuous parameters using multiple skin stretch tactors and operating method thereof

Also Published As

Publication number Publication date
KR20090062461A (en) 2009-06-17

Similar Documents

Publication Publication Date Title
Sreelakshmi et al. Haptic technology: A comprehensive review on its applications and future prospects
Wang et al. Real-virtual components interaction for assembly simulation and planning
Birglen et al. SHaDe, a new 3-DOF haptic device
Burdea Haptics issues in virtual environments
KR100934391B1 (en) Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices
Achibet et al. Elastic-Arm: Human-scale passive haptic feedback for augmenting interaction and perception in virtual environments
Beattie et al. Taking the LEAP with the Oculus HMD and CAD-Plucking at thin Air?
CN111338287A (en) Robot motion control method, device and system, robot and storage medium
Sanfilippo et al. A low-cost multi-modal auditory-visual-tactile framework for remote touch
Christou et al. Pseudo‐Hologram with Aerohaptic Feedback for Interactive Volumetric Displays
Cui et al. Mid-air gestures for virtual modeling with leap motion
Evreinova et al. From kinesthetic sense to new interaction concepts: Feasibility and constraints
Civelek et al. Virtual reality learning environment with haptic gloves
Nitzsche et al. Mobile haptic interaction with extended real or virtual environments
Menezes et al. Touching is believing-Adding real objects to Virtual Reality
Rise et al. The potential of gesture-based interaction
JP7481783B1 (en) Position detection device and information processing system
Efraimidis et al. Wireless embedded system on a glove for hand motion capture and tactile feedback in 3d environments
JP2020077069A (en) Feedback generating device
Barhoush et al. A novel experimental design of a real-time VR tracking device
Alhalabi et al. Haptic interaction rendering technique for HIRO: An opposite human hand haptic interface robot
CN117251058B (en) Control method of multi-information somatosensory interaction system
Krause et al. Haptic interaction with non-rigid materials for assembly and dissassembly in product development
Millan et al. Gesture-based control
KR20200036261A (en) Method for providing real physical feedback in virtual object contact and apparatus therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee