KR101578345B1 - 역감을 재생하는 장치 - Google Patents

역감을 재생하는 장치 Download PDF

Info

Publication number
KR101578345B1
KR101578345B1 KR1020140117294A KR20140117294A KR101578345B1 KR 101578345 B1 KR101578345 B1 KR 101578345B1 KR 1020140117294 A KR1020140117294 A KR 1020140117294A KR 20140117294 A KR20140117294 A KR 20140117294A KR 101578345 B1 KR101578345 B1 KR 101578345B1
Authority
KR
South Korea
Prior art keywords
position information
control unit
module
information
haptic
Prior art date
Application number
KR1020140117294A
Other languages
English (en)
Inventor
이광규
김신영
윤대근
조재희
유범재
Original Assignee
재단법인 실감교류인체감응솔루션연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 실감교류인체감응솔루션연구단 filed Critical 재단법인 실감교류인체감응솔루션연구단
Priority to KR1020140117294A priority Critical patent/KR101578345B1/ko
Priority to US14/574,367 priority patent/US9030307B1/en
Application granted granted Critical
Publication of KR101578345B1 publication Critical patent/KR101578345B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 역감을 재생하는 장치에 관한 것이다. 본 발명에 따르면, 신체의 제1 부위에 복수 개 배치되는 햅틱 유닛 - 상기 복수 개 배치되는 햅틱 유닛 각각의 위치 정보가 획득됨 -; 및 상기 제1 부위의 근방의 제2 부위에 위치하는 제어 유닛을 포함하되, 상기 제어 유닛은, 상기 복수 개의 햅틱 유닛 각각의 상대적 위치 정보 및 상기 햅틱 유닛과 상기 제어 유닛 간의 상대적 위치 정보가 측정되면 이를 획득하는 제1 모듈; 상기 제어 유닛의 위치 및 자세가 외부의 기준점을 참조로 하여 측정되면 이를 절대적 위치 정보로서 획득하는 제2 모듈; 및 상기 제1 모듈에 의해 획득된 상대적 위치 정보 및 상기 제2 모듈에 의해 획득된 절대적 위치 정보 중 적어도 하나를 참조로 하여, 촉각 지령을 생성 및 전달하는 촉각 지시 모듈을 포함하는 장치가 제공된다. 본 발명에 따르면, 가상객체와의 인터랙션시 사용자가 더욱 현실감과 실재감을 느끼도록 역감을 생성하여 재생할 수 있다.

Description

역감을 재생하는 장치{APPARATUS FOR GENERATING FORCE FEEDBACK}
본 발명은 역감을 재생하는 장치에 관한 것으로, 보다 상세하게는, 신체의 제1 부위에 복수 개로 배치되는 햅틱 유닛과 제1 부위의 근방의 제2 부위에 위치하는 제어 유닛을 포함하는 장치로서, 이 제어 유닛은, 복수 개로 배치된 햅틱 유닛 각각에 대한 상대적 위치 정보 및 햅틱 유닛과 제어 유닛 간의 상대적 위치 정보가 측정되면 이를 획득하는 제1 모듈; 제어 유닛의 위치 및 자세가 외부의 기준점을 참조로 하여 측정되면 이를 절대적 위치 정보로서 획득하는 제2 모듈; 및 제1 모듈이 획득한 상대적 위치 정보 및 제2 모듈이 획득한 절대적 위치 정보 중에서 적어도 하나를 참조로 하여, 촉각 지령을 생성 및 전달하는 촉각 지시 모듈을 포함하는, 역감을 재생하는 장치에 관한 것이다.
가상 환경이란 가상 객체 및 주변의 환경을 모두 포함하는 개념으로서, 가상 환경의 햅틱 속성에는 소재 속성(Material Property), 역학적 힘 효과(Dynamic Force Effect) 및 촉감 속성(Tactile Property) 등이 포함된다.
소재 속성에는 가상 환경의 단단한 정도인 강성(Stiffness), 가상 환경의 정적 마찰력(Static Friction), 가상 환경의 동적 마찰력(Dynamic Friction), 가상 환경의 감쇠인 댐핑(Damping) 및 햅틱 텍스쳐 등이 포함되며, 역학적 힘 효과에는 가상 환경의 질량(Mass), 힘 필드(Force Field) 등이 포함된다.
또한, 촉감 속성에는 가상 환경의 진동(Vibration) 및 촉감 패턴(Tactile Patterns) 등이 포함된다.
이렇게 정의된 가상 환경의 햅틱 속성을 기준으로 하여, 촉각 기기를 통해 사용자에게 촉각 정보를 제공할 수 있으며, 가령, 가상 환경의 사용자가 가상 환경 내에 있는 부드러운 인형을 터치할 경우, 이 부드러운 속성의 느낌이 사용자에게 전달되어 제공될 수도 있다.
물론, 이와 같은 가상 객체의 부드러운 느낌이 사용자에게 제공된다면, 더욱 가상 객체를 실감 있게 제공할 수 있으나, 어느 위치에 어느 강도로 촉감을 생성하는 것이 바람직한지 판단하여 표현하기에는 문제가 있었다.
이에, 본 발명자는 이상의 문제점을 해결하여, 최적의 위치에 적합한 강도로 역감을 생성하여 재생할 수 있는 기술을 제안하고자 한다.
본 발명은 상술한 문제점을 모두 해결하는 것을 목적으로 한다.
본 발명은 역감을 재생하는 장치를 사용하는 사용자의 움직임에 기반하여 정확한 촉감을 정확한 위치에 생성하는 것을 다른 목적으로 한다.
본 발명은 역감을 재생하는 장치를 사용하는 사용자가 손에 쥐어진 가상물체를 쥐었을 때의 느낌을 표현하거나 손의 외부 공간상 위치한 가상객체와의 인터랙션시 접촉에 따른 촉각정보를 생성하는 것을 또 다른 목적으로 한다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한, 본 발명의 특징적인 구성은 하기와 같다.
본 발명의 일 태양에 따르면, 역감을 재생하는 장치에 있어서, 신체의 제1 부위에 복수 개 배치되는 햅틱 유닛 - 상기 복수 개 배치되는 햅틱 유닛 각각의 위치 정보가 획득됨 -; 및 상기 제1 부위의 근방의 제2 부위에 위치하는 제어 유닛을 포함하되, 상기 제어 유닛은, 상기 복수 개의 햅틱 유닛 각각의 상대적 위치 정보 및 상기 햅틱 유닛과 상기 제어 유닛 간의 상대적 위치 정보가 측정되면 이를 획득하는 제1 모듈;과 상기 제어 유닛의 위치 및 자세가 외부의 기준점을 참조로 하여 측정되면 이를 절대적 위치 정보로서 획득하는 제2 모듈; 및 상기 제1 모듈에 의해 획득된 상대적 위치 정보 및 상기 제2 모듈에 의해 획득된 절대적 위치 정보 중 적어도 하나를 참조로 하여, 촉각 지령을 생성 및 전달하는 촉각 지시 모듈을 포함하는 장치가 제공된다.
본 발명은 가상 객체와 인터랙션시 역감을 재생하는 장치를 사용하는 사용자의 손마디 사이의 상대적 위치 정보 및 상기 사용자의 손마디 각각의 절대적 위치 정보 중 적어도 하나를 참조로 하고 가상객체의 사이즈, 형태, 물성 등을 참조로 하여, 가상객체와의 인터랙션시 사용자가 더욱 현실감과 실재감을 느낄 수 있게 하는 효과가 있다.
본 발명은 역감을 재생하는 장치의 사용자가 가상 객체 등을 손에 쥐거나 접촉시 정확한 위치 정보에 따른 촉감생성으로 가상 객체의 물성을 명확하게 표현할 수 있으며, 압력감, 진동감, 비틀림 등의 감각을 세밀하게 생성하므로, 게임, 엔터테인먼트, 온라인쇼핑과 같은 분야에서 사용자 유저 인터페이스로 활용하여 사용자의 흥미를 증진할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 역감을 재생하는 장치에 포함된 제어 유닛의 내부 구성과 제어 유닛과 연동하는 햅틱 유닛을 간단히 나타내는 개략도이다.
도 2는 본 발명의 일 실시예에 따른 역감을 재생하는 장치의 착용 상태의 예시를 나타내는 것이다.
도 3은 본 발명의 일 실시예에 따라서 역감을 재생하는 장치에 포함된 제어 유닛과 햅틱 유닛의 내부 구성을 자세히 나타내는 상세도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 역감을 재생하는 장치의 내부 구성을 간략히 나타내는 것으로, 역감을 재생하는 장치는, 햅틱 유닛(100)과 제어 유닛(200)을 포함할 수 있다. 또한, 제어 유닛(200)은 제1 모듈(210), 제2 모듈(220), 촉각 지시 모듈(230)을 포함할 수 있다.
햅틱 유닛(100)은, 신체의 한 부분인 제1 부위에 복수 개로 배치될 수 있으며, 상기 복수 개로 배치되는 햅틱 유닛(100) 각각에 대한 위치 정보가 획득될 수 있다.
구체적으로, 상기 햅틱 유닛(100) 각각은, 상호 작용하여 자기장을 발생하는 자석 쌍과 상기 자석 쌍의 위치를 파악하기 위한 위치 센서를 포함할 수도 있다(도 2 참조). 이 때, 위치 센서에 식별 번호(ID)가 각각 부여되어, 상기 각각의 햅틱 유닛(100)의 위치 및 자세 정보가 획득될 수도 있을 것이다.
제어 유닛(200)은, 상기 제1 부위의 근방의 신체의 다른 부분인 제2 부위에 위치할 수 있다. 또한, 상기 제어 유닛(200)은, 앞서 언급하였듯이, 제1 모듈(210), 제2 모듈(220), 촉각 지시 모듈(230)을 포함할 수도 있다.
구체적으로, 제1 모듈(210)은, 상기 복수 개의 햅틱 유닛(100) 각각의 상대적 위치 정보 및 상기 햅틱 유닛(100)과 상기 제어 유닛(200) 간의 상대적 위치 정보가 측정되면 이 측정된 정보를 획득하고, 제2 모듈(220)은, 상기 제어 유닛(200)의 위치 및 자세가 외부의 소정의 기준점을 참조로 하여서 측정되면 이 측정된 위치 및 자세를 절대적 위치 정보로서 획득할 수 있다.
또한, 촉각 지시 모듈(230)은, 상기 제1 모듈(210)에 의해 획득된 상대적 위치 정보 및 상기 제2 모듈(220)에 의해 획득된 절대적 위치 정보 중에서 적어도 하나를 참조로 하여서, 촉각 지령을 생성 및 전달할 수 있다. 이 때, 상기 촉각 지시 모듈(230)은, 인터랙션을 하고자 하는 가상 객체의 위치 정보 및 물성 정보 중에서 적어도 하나를 추가적으로 참조로 하여, 상기 촉각 지령을 생성 및 전달할 수도 있을 것이다. 물론, 상기 가상 객체의 위치 정보는 상기 가상 객체의 사이즈 및 형태 정보일 수도 있으나, 이에 한정되는 것은 아니다.
가령, 제1 부위가 손이고, 상기 제2 부위가 손목일 경우, 사용자의 손 안에 위치한 가상 객체에 대한 역감을 생성하기 위해서, 상기 촉각 지시 모듈(230)은, 상기 획득된 상대적 위치 정보를 참조하여서 상기 사용자의 손의 위치 및 자세 정보를 획득하고, 상기 가상 객체의 위치 및 물성에 대한 정보를 추가적으로 참조하여 상기 촉각 지령을 생성할 수 있을 것이다. 이 때, 가상 객체의 물성에 대한 정보는 단단함 정도, 표면의 거침, 형상 등의 정보로서 참조될 것이다.
한편, 제1 부위가 손이고, 상기 제2 부위가 손목일 경우, 사용자의 손 밖에 위치한 가상 객체에 대한 역감을 생성할 수도 있으며, 이를 위하여, 상기 촉각 지시 모듈(230)은, 상기 획득된 상대적 위치 정보 및 상기 획득된 절대적 위치 정보를 참조하여서 상기 사용자의 손의 위치 및 자세 정보를 획득하고, 상기 가상 객체의 위치 및 물성에 대한 정보를 추가적으로 참조하여 상기 촉각 지령을 생성할 수도 있겠다.
이 때, 상기 상대적 위치 정보 및 상기 절대적 위치 정보의 획득은 상기 햅틱 유닛(100)에 위치하는 센서 및 상기 제어 유닛(200)에 위치하는 센서에 의해 이루어지거나, leap 모션이나 vision을 이용한 이미지 프로세싱에 의하여 이루어질 수도 있을 것이다.
도 2는 본 발명의 일 실시예에 따른 역감을 재생하는 장치를 착용한 일례를 나타낸 것으로서, 구체적인 구성을 설명하면 다음과 같다.
먼저, 제어 유닛(200)이 위치하는 제2 부위는 햅틱 유닛(110, 120, 130) 각각이 배치된 제1 부위에서 인접한 관절 부위일 수도 있으며, 도 2를 참조하면, 상기 제1 부위는 손가락의 마디로서 이에 인접한 관절 부위인, 상기 제2 부위는 손목 관절이 될 수도 있을 것이다.
본 발명의 실시예에 따르면, 햅틱 유닛(110, 120, 130)은 자석쌍(111, 112)으로 링(ring) 형태의 모양으로 구성될 수 있으며, 또한, 위치 센서를 포함할 수도 있다. 이 때, 자석쌍(111, 112)는 햅틱소자로서 햅틱 구동부에 의해 위치, 진동의 주파수, 크기, 세기 등의 다양한 형태의 햅틱을 재생할 수 있다. 물론, 햅틱 구동부는 햅틱소자와 함께 손가락의 마디에 장착되거나 외부에 존재할 수도 있을 것이다. 또한, 상기 위치 센서는 상기 자석쌍(111, 112)과 함께 손가락의 마디에 장착되는 형태인 엔코더, 플렉서블 밴드 센서일 수도 있으나, 이에 한정되는 것은 아니다. 또한, 본 발명에 따르면, 비접촉 마그네틱 센서, 모션 캡쳐 센서 등의 위치 센서를 이용하여 외부에서 상기 자석쌍(111, 112)의 위치를 측정할 수 있도록 할 수도 있을 것이다.
또한, 본 발명의 실시예에 따르면, 제어 유닛(200)은 손목을 감싸는 리스트 밴드(Wrist band) 형태의 모양으로 구성될 수 있으며, 외부와 데이터를 주고 받을 수 있는 유선 또는 무선 송수신장치 및 통신부를 포함할 수도 있다. 또한, 상기 햅틱 유닛(110, 120, 130)과 유선 또는 무선으로 연결되어 통신을 할 수도 있을 것이다.
앞서 언급하였듯이, 상기 제어 유닛(200)의 촉각 지시 모듈(230)은 획득된 위치정보를 이용하여 촉각 지령을 생성할 수 있다. 이 때, 생성되는 촉각 지령은 촉각정보의 강도 및 크기에 관련된 지령이 될 수도 있으며, 이는 가상객체의 물성으로서 크기, 강성, 지오메트리(geometry) 등을 참조하여 정해질 수도 있다.
가령, M=S*D+M0 식을 이용하여 선형적 또는 비선형적으로 촉각정보의 강도 및 크기가 획득될 수 있으며, 이 때, M은 생성되는 촉각정보의 강도이며, M0는 생성되는 촉각정보의 초기값 및 기본값이다. 또한, S는 물성에 의해 결정되는 촉각정보 스케일링 팩터(Scaling Factor)이며, D는 햅틱 유닛(110, 120, 130)의 상대적 거리와 가상 객체의 디멘존(Dimension)의 차, 또는 가상 객체와 접촉하고 있는 햅틱 유닛(110, 120, 130) 사이에서 상대적으로 움직인 거리가 될 수도 있다.
본 발명에 따르면, 햅틱 유닛(110, 120, 130)의 상대적인 위치로 거리를 측정하여 거리가 상대적으로 작으면, 오므리는 손의 자세로 볼 수 있으므로, 재생되는 역감의 크기가 증가할 수도 있으며, 가령, 그 측정된 거리가 상대적으로 크면, 펼쳐진 손의 자세로 볼 수 있으므로, 재생되는 역감의 크기가 감소할 수도 있을 것이다. 물론, 이는 가상 객체가 손과 근접하고 손가락을 구부렸을 때 손의 안 쪽에 위치하는 것으로서 그 위치가 획득되었을 경우이며, 그와는 반대로 손의 바깥쪽에 위치하는 것으로서 그 위치가 획득되었을 경우에는, 손가락 마디에 위치한 햅틱 유닛(110, 120, 130) 각각의 위치에 따라서 재생되는 역감이 다르며, 가상 객체와 위치가 가까울수록 그 역감은 클 수도 있을 것이며, 물론, 가상 객체와 그 위치가 멀수록 그 역감은 상대적으로 작을 수도 있을 것이다. 물론, 역감뿐만 아니라, 재생되는 촉감은 진동감, 비틀림 등의 촉감을 획득된 위치에 따라서 차이가 나도록 생성할 수도 있을 것이다. 또한, 이는 가상 물체를 쥐었을 때 느낄 수 있는 느낌으로 표현될 수 있으며, 가상 물체의 단단한 정도, 표면 거칠기 등을 표현할 수도 있을 것이다.
도 3은 본 발명의 일 실시예에 따라서 역감을 재생하는 장치의 내부 구성을 상세히 나타내는 것으로서, 실제 구성된 예로, 햅틱 유닛(100)과 제어 유닛(200)을 구현한 예를 나타낸 것이다.
본 발명의 실시예에 따르면, 손가락 마디에 장착하여 햅틱을 재생할 수 있는 햅틱 유닛(110, 120, 130)과 가상객체 정보를 수신하고 햅틱 유닛(110, 120, 130)들의 위치정보와 비교하여 명령 및 지령 등을 생성하는 손목 밴드 형태의 제어 유닛(200)으로 구성될 수 있다. 구체적으로, 햅틱 유닛(110, 120, 130)은 자석쌍(111, 112)인 햅틱 소자를 이용하여 다양한 형태의 햅틱을 재생할 수 있으며, 햅틱 구동부와 통신부로 구성되며, 위치센서 등의 위치소자도 포함되어 햅틱 유닛(100)의 위치를 측정할 수 있다. 물론, 위치 센서는 외부에 구현될 수도 있을 것이다. 또한, 각각의 통신은 유선 또는 무선으로 구현될 수 있으며, 제어 유닛(200)의 위치 센서도 역시 외부에서 구현될 수도 있을 것이다. 또한, 제어 유닛(200)은 위치 센서로부터 위치 정보를 획득하여, 공간상의 각 유닛의 절대적 위치를 획득할 수도 있을 것이며, 물론 상대적 위치에 대한 정보 획득도 할 수 있을 것이다. 또한, 역감을 재생하는 장치의 전력은 제어 유닛(200)에 배터리를 장착하여 공급할 수도 있으며, 물론, 외부의 전원으로서 전력을 이용할 수도 있을 것이며, 또한, 각각의 유닛마다 소형 배터리를 장착하여 개별적인 전원으로 구현할 수도 있을 것이다.
또한, 본 발명의 실시예에 따르면, 제어 유닛(200)은 가상 객체 정보를 획득하여, 손 안에 있는 가상객체의 물성에 대한 햅틱을 생성할 경우, 햅틱 유닛(100)의 공간상 절대적 위치 정보를 제외하고, 햅틱 유닛(100) 간의 상대적 위치 및 핸드포즈 정보만을 이용하여 구현할 수 있을 것이다. 또한, 외부에 가상 객체가 위치할 경우, 햅틱 유닛(100) 또는 제어 유닛(200)의 상대적 위치 정보를 계산하여 절대적 위치 정보로 변환하고, 가상 객체의 위치 및 물성에 대한 정보를 갱신하여, 각각의 햅틱 유닛(100)과 가상 객체의 위치 정보를 비교하여, 각각의 햅틱 유닛(100)에 적절한 명령을 내릴 수 있도록 지령을 생성할 수 있으며, 생성한 지령을 햅틱 유닛(100)으로 전송하고, 그 지령을 획득한 햅틱 유닛(100)의 햅틱 구동부를 통하여 햅틱소자인 자석쌍(111,112)를 구동하여 햅틱을 재생할 수도 있을 것이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 햅틱 유닛
200: 제어 유닛

Claims (10)

  1. 역감을 재생하는 장치에 있어서,
    신체의 제1 부위에 복수 개 배치되는 햅틱 유닛 - 상기 복수 개 배치되는 햅틱 유닛 각각의 위치 정보가 획득됨 -; 및
    상기 제1 부위의 근방의 제2 부위에 위치하는 제어 유닛을 포함하되,
    상기 제어 유닛은,
    상기 복수 개의 햅틱 유닛 각각의 상대적 위치 정보 및 상기 햅틱 유닛과 상기 제어 유닛 간의 상대적 위치 정보가 측정되면 이를 획득하는 제1 모듈;
    상기 제어 유닛의 위치 및 자세가 외부의 기준점을 참조로 하여 측정되면 이를 절대적 위치 정보로서 획득하는 제2 모듈; 및
    상기 제1 모듈에 의해 획득된 상대적 위치 정보 및 상기 제2 모듈에 의해 획득된 절대적 위치 정보 중 적어도 하나를 참조로 하여, 촉각 지령을 생성 및 전달하는 촉각 지시 모듈을 포함하고,
    상기 제1 부위가 손이고, 상기 제2 부위가 손목일 때,
    사용자의 손 안에 위치한 가상 객체에 대한 역감을 생성하고자 하는 경우, 상기 촉각 지시 모듈은, 상기 획득된 상대적 위치 정보를 참조하여 상기 사용자의 손의 위치 및 자세 정보를 획득하고, 상기 가상 객체의 위치 및 물성에 대한 정보를 추가적으로 참조하여 상기 촉각 지령을 생성하는 것을 특징으로 하는 장치.
  2. 제1항에 있어서,
    상기 햅틱 유닛 각각은,
    상호 작용하여 자기장을 발생하는 자석 쌍; 및
    상기 자석 쌍의 위치를 파악하기 위한 위치 센서
    를 포함하는 것을 특징으로 하는 장치.
  3. 제2항에 있어서,
    상기 위치 센서에 식별 번호(ID)가 각각 부여되어, 상기 각각의 햅틱 유닛의 위치 및 자세 정보가 획득되는 것을 특징으로 하는 장치.
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 촉각 지시 모듈은,
    상기 제1 모듈에 의해 획득된 상대적 위치 정보 및 상기 제2 모듈에 의해 획득된 절대적 위치 정보 중 적어도 하나를 참조로 하되, 인터랙션을 하고자 하는 가상 객체의 위치 정보 및 물성 정보 중 적어도 하나를 추가적으로 참조로 하여, 상기 촉각 지령을 생성 및 전달하는 것을 특징으로 하는 장치.
  7. 제6항에 있어서,
    상기 촉각 지시 모듈은,
    상기 가상 객체의 위치 정보는 상기 가상 객체의 사이즈 및 형태 정보를 포함하는 것을 특징으로 하는 장치.
  8. 삭제
  9. 역감을 재생하는 장치에 있어서,
    신체의 제1 부위에 복수 개 배치되는 햅틱 유닛 - 상기 복수 개 배치되는 햅틱 유닛 각각의 위치 정보가 획득됨 -; 및
    상기 제1 부위의 근방의 제2 부위에 위치하는 제어 유닛을 포함하되,
    상기 제어 유닛은,
    상기 복수 개의 햅틱 유닛 각각의 상대적 위치 정보 및 상기 햅틱 유닛과 상기 제어 유닛 간의 상대적 위치 정보가 측정되면 이를 획득하는 제1 모듈;
    상기 제어 유닛의 위치 및 자세가 외부의 기준점을 참조로 하여 측정되면 이를 절대적 위치 정보로서 획득하는 제2 모듈; 및
    상기 제1 모듈에 의해 획득된 상대적 위치 정보 및 상기 제2 모듈에 의해 획득된 절대적 위치 정보 중 적어도 하나를 참조로 하여, 촉각 지령을 생성 및 전달하는 촉각 지시 모듈을 포함하고,
    상기 제1 부위가 손이고, 상기 제2 부위가 손목일 때,
    사용자의 손 밖에 위치한 가상 객체에 대한 역감을 생성하고자 하는 경우, 상기 촉각 지시 모듈은, 상기 획득된 상대적 위치 정보 및 상기 획득된 절대적 위치 정보를 참조하여 상기 사용자의 손의 위치 및 자세 정보를 획득하고, 상기 가상 객체의 위치 및 물성에 대한 정보를 추가적으로 참조하여 상기 촉각 지령을 생성하는 것을 특징으로 하는 장치.
  10. 제1항에 있어서,
    상기 상대적 위치 정보 및 상기 절대적 위치 정보의 획득은 상기 햅틱 유닛에 위치하는 센서 및 상기 제어 유닛에 위치하는 센서에 의해 이루어지거나 leap 모션이나 vision을 이용한 이미지 프로세싱에 의해 이루어지는 것을 특징으로 하는 장치.
KR1020140117294A 2014-09-03 2014-09-03 역감을 재생하는 장치 KR101578345B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140117294A KR101578345B1 (ko) 2014-09-03 2014-09-03 역감을 재생하는 장치
US14/574,367 US9030307B1 (en) 2014-09-03 2014-12-17 Apparatus for generating haptic feedback

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140117294A KR101578345B1 (ko) 2014-09-03 2014-09-03 역감을 재생하는 장치

Publications (1)

Publication Number Publication Date
KR101578345B1 true KR101578345B1 (ko) 2015-12-17

Family

ID=53038235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140117294A KR101578345B1 (ko) 2014-09-03 2014-09-03 역감을 재생하는 장치

Country Status (2)

Country Link
US (1) US9030307B1 (ko)
KR (1) KR101578345B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190080771A (ko) * 2017-12-28 2019-07-08 임머숀 코퍼레이션 가상 현실을 위한 장거리 상호 작용들을 위한 시스템들 및 방법들

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324530B2 (en) * 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
CN105677036B (zh) * 2016-01-29 2018-04-10 清华大学 一种交互式数据手套
US9804677B2 (en) * 2016-02-04 2017-10-31 Korea Institute Of Science And Technology Method and apparatus for creating virtual joint sensation
JP2017182495A (ja) * 2016-03-30 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10372213B2 (en) * 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10474236B1 (en) * 2017-09-13 2019-11-12 Facebook Technologies, Llc Haptic device for variable bending resistance
KR20200036261A (ko) * 2018-09-28 2020-04-07 재단법인 실감교류인체감응솔루션연구단 가상 객체 접촉시 실감 피드백을 제공하는 방법 및 이를 위한 장치
CN109460146B (zh) * 2018-10-23 2021-04-16 北京航空航天大学 一种基于软体驱动器的力反馈手套
CN109582132B (zh) * 2018-11-01 2024-03-22 深圳岱仕科技有限公司 手部机械外骨骼及其反馈控制方法
KR102269414B1 (ko) * 2019-03-07 2021-06-24 재단법인 실감교류인체감응솔루션연구단 핸드 모션 캡쳐 장치를 기반으로 가상/증강 현실에서의 객체 조작 방법 및 장치
US11874964B1 (en) * 2022-12-02 2024-01-16 Htc Corporation Glove

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337653A (ja) 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USH2017H1 (en) * 1998-04-02 2002-04-02 The United States Of America As Represented By The Secretary Of The Air Force Virtual reality force emulation
JP2003337963A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
KR100537503B1 (ko) * 2002-12-31 2005-12-19 삼성전자주식회사 공간형정보입력장치 구성 방법, 재구성 방법, 착용인식방법 및그 장치
JP2007331066A (ja) * 2006-06-15 2007-12-27 Canon Inc 接触提示装置及び方法
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US8031172B2 (en) * 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US9389684B2 (en) * 2013-03-13 2016-07-12 Visual Music Systems, Inc. Platform for finger controls

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337653A (ja) 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190080771A (ko) * 2017-12-28 2019-07-08 임머숀 코퍼레이션 가상 현실을 위한 장거리 상호 작용들을 위한 시스템들 및 방법들
US10558267B2 (en) 2017-12-28 2020-02-11 Immersion Corporation Systems and methods for long-range interactions for virtual reality
KR102089190B1 (ko) * 2017-12-28 2020-03-13 임머숀 코퍼레이션 가상 현실을 위한 장거리 상호 작용들을 위한 시스템들 및 방법들
US10747325B2 (en) 2017-12-28 2020-08-18 Immersion Corporation Systems and methods for long-range interactions for virtual reality

Also Published As

Publication number Publication date
US9030307B1 (en) 2015-05-12

Similar Documents

Publication Publication Date Title
KR101578345B1 (ko) 역감을 재생하는 장치
CN109791435B (zh) 虚拟现实或增强现实显示系统中磁传感器和光学传感器的校准
EP3588250A1 (en) Real-world haptic interactions for a virtual reality user
US11656684B2 (en) Haptic gloves for virtual reality systems and methods of controlling the same
JP6368329B2 (ja) 位置に基づいて触覚刺激を提供するシステム及び方法
US20190201785A1 (en) Systems and methods for providing haptic effects related to touching and grasping a virtual object
JP7037561B2 (ja) ウェアラブルコンポーネントのための熱管理システム
US9001032B2 (en) Tactile transmission system using glove type actuator device and method thereof
EP3598273A1 (en) Adaptive haptic effect rendering based on dynamic system identification
KR101726388B1 (ko) 가상 공간의 가상 객체와 인터랙션하는 사용자에게 실제와 유사한 역감을 제공하는 장치
CN112041789B (zh) 位置指示设备及空间位置指示系统
US11880528B2 (en) Stimulus transmission device
JP2010287221A (ja) 力覚提示装置
KR20190013540A (ko) 단일 액추에이터 햅틱 효과
US20230221800A1 (en) Virtual reality glove
Prattichizzo et al. Wearable and hand-held haptics
US10635457B2 (en) Input device and UI configuration and execution method thereof
JP6780559B2 (ja) 触感提供装置、及び、触感提供システム
US11169607B1 (en) Haptic-feedback apparatuses that utilize linear motion for creating haptic cues
Jyothi et al. Haptic technology-a sense of touch
US11168768B1 (en) Collaborative shear display
JP2018181185A (ja) 力覚提示器及び仮想力覚提示装置
KR20140106309A (ko) 포스피드백 기능을 구비한 가상현실 입력장치
Waquas Haptic Technology-A Sense of Real Touch
KR20230163820A (ko) 가상현실 체험을 위한 전자장갑을 이용한 다중감각 인터페이스 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181120

Year of fee payment: 4