KR20200035296A - Imu 기반 장갑 - Google Patents

Imu 기반 장갑 Download PDF

Info

Publication number
KR20200035296A
KR20200035296A KR1020207006034A KR20207006034A KR20200035296A KR 20200035296 A KR20200035296 A KR 20200035296A KR 1020207006034 A KR1020207006034 A KR 1020207006034A KR 20207006034 A KR20207006034 A KR 20207006034A KR 20200035296 A KR20200035296 A KR 20200035296A
Authority
KR
South Korea
Prior art keywords
finger
glove
user
imus
sections
Prior art date
Application number
KR1020207006034A
Other languages
English (en)
Other versions
KR102414497B1 (ko
Inventor
존 그리어 엘리아스
앤드류 디. 스테리안
아누란지니 프라가다
다니엘 디. 선샤인
진 시앙-춘 루
리아 미케오 우에사토
스토르스 타운센드 호엔
제비나 피. 마세
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20200035296A publication Critical patent/KR20200035296A/ko
Application granted granted Critical
Publication of KR102414497B1 publication Critical patent/KR102414497B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D1/00Garments
    • A41D1/002Garments adapted to accommodate electronic equipment
    • A41D1/005Garments adapted to accommodate electronic equipment with embedded cable or connector
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D19/00Gloves
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D19/00Gloves
    • A41D19/0024Gloves with accessories
    • A41D19/0027Measuring instruments, e.g. watch, thermometer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • DTEXTILES; PAPER
    • D04BRAIDING; LACE-MAKING; KNITTING; TRIMMINGS; NON-WOVEN FABRICS
    • D04BKNITTING
    • D04B1/00Weft knitting processes for the production of fabrics or articles not dependent on the use of particular machines; Fabrics or articles defined by such processes
    • D04B1/22Weft knitting processes for the production of fabrics or articles not dependent on the use of particular machines; Fabrics or articles defined by such processes specially adapted for knitting goods of particular configuration
    • D04B1/24Weft knitting processes for the production of fabrics or articles not dependent on the use of particular machines; Fabrics or articles defined by such processes specially adapted for knitting goods of particular configuration wearing apparel
    • D04B1/28Weft knitting processes for the production of fabrics or articles not dependent on the use of particular machines; Fabrics or articles defined by such processes specially adapted for knitting goods of particular configuration wearing apparel gloves
    • DTEXTILES; PAPER
    • D04BRAIDING; LACE-MAKING; KNITTING; TRIMMINGS; NON-WOVEN FABRICS
    • D04BKNITTING
    • D04B21/00Warp knitting processes for the production of fabrics or articles not dependent on the use of particular machines; Fabrics or articles defined by such processes
    • D04B21/20Warp knitting processes for the production of fabrics or articles not dependent on the use of particular machines; Fabrics or articles defined by such processes specially adapted for knitting articles of particular configuration
    • D04B21/207Wearing apparel or garment blanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D2500/00Materials for garments
    • A41D2500/10Knitted
    • DTEXTILES; PAPER
    • D10INDEXING SCHEME ASSOCIATED WITH SUBLASSES OF SECTION D, RELATING TO TEXTILES
    • D10BINDEXING SCHEME ASSOCIATED WITH SUBLASSES OF SECTION D, RELATING TO TEXTILES
    • D10B2401/00Physical properties
    • D10B2401/16Physical properties antistatic; conductive
    • DTEXTILES; PAPER
    • D10INDEXING SCHEME ASSOCIATED WITH SUBLASSES OF SECTION D, RELATING TO TEXTILES
    • D10BINDEXING SCHEME ASSOCIATED WITH SUBLASSES OF SECTION D, RELATING TO TEXTILES
    • D10B2501/00Wearing apparel
    • D10B2501/04Outerwear; Protective garments
    • D10B2501/041Gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Textile Engineering (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 개별 손가락 및 엄지손가락 뼈들의 움직임을 측정할 수 있는 VR 장갑에 관한 것이다. VR 장갑은 하나 이상의 손가락들 및/또는 손 섹션들의 움직임을 추적하기 위해 복수의 관성 측정 유닛(inertial measurement unit, IMU)들을 포함할 수 있다. IMU들은, IMU가 부착될 수 있는 물체들(예컨대, 손가락 뼈들)의 배향, 위치, 및 속도를 측정하기 위한, 자이로스코프 및 가속도계와 같은 하나 이상의 모션 센서들을 포함할 수 있다. EVIU는 손가락(또는 엄지손가락) 뼈에 근접하게 위치될 수 있고, 대응하는 뼈의 관성 모션을 측정할 수 있다. 일부 예에서, VR 장갑은 지자기장(geo-magnetic field)의 방향을 결정하기 위해 자력계들을 포함할 수 있다. VR 장갑은 또한, 용량성 터치, 및/또는 손가락끝들 사이의 접촉 감지를 가능하게 하는, 헤딩(heading)을 감지하기 위한 복수의 전극들과 같은, 하나 이상의 다른 전자 컴포넌트들을 포함할 수 있다.

Description

IMU 기반 장갑
본 출원은 전체 개시 내용이 모든 목적을 위해 본 명세서에 참고로 포함되고 2017년 9월 29일자로 출원된 미국 가특허 출원 제62/566,303호의 이익을 주장한다.
이는 개별 손가락 및 엄지손가락 뼈들의 움직임을 측정할 수 있는 장갑에 관한 것이다.
가상 현실(VR) 기술은 군사 훈련, 교육 학습, 및 비디오 게임과 같은 많은 응용예에 사용될 수 있다. VR 기술은 가상 환경 및 그 가상 환경에서의 사용자의 물리적 존재를 시뮬레이션하기 위해 하나 이상의 전자 디바이스들을 사용할 수 있다. 한 가지 유형의 VR 기술은, 사용자의 현실 환경에 컴퓨터 생성 객체들 또는 콘텐츠가 보완될 수 있는 증강 현실(AR) 기술이다. 다른 유형의 VR 기술은, 사용자의 현실 환경 및 가상 환경이 서로 혼합될 수 있는 혼합 현실(MR) 기술이다.
VR/AR/MR 기술은 하나 이상의 전자 디바이스들을 사용하여 시뮬레이션될 수 있다. 하나의 전자 디바이스는 VR 헤드셋일 수 있는데, 여기서 사용자는 시뮬레이션된 가상 환경을 보기 위해 VR 헤드셋을 사용할 수 있다. 사용자가 여기저기 둘러보기 위해 그의 또는 그녀의 머리를 움직임에 따라, 헤드셋에 포함된 디스플레이는 사용자의 머리 움직임을 반영하도록 업데이트될 수 있다. 다른 전자 디바이스는 하나 이상의 카메라들을 포함할 수 있다. 하나 이상의 카메라들은 AR 기술에서 사용자의 현실 환경을 캡처하는 데 사용될 수 있고/있거나 위치 추적을 위해 사용될 수 있다. 또 다른 전자 디바이스는 VR 장갑들을 포함할 수 있다. VR 장갑들은 사용자의 손들에 착용될 수 있고, 사용자가 가상 객체들을 실시간으로 터치하고, 느끼고, 홀딩(holding)하게 할 수 있다. 가려짐(occlusion) 없이 사용자의 손들 및 손가락들의 위치들 및 모션들을 정확하게 검출할 수 있는 VR 장갑들이 요구될 수 있다.
본 발명은 개별 손가락 및 엄지손가락 뼈들의 움직임을 측정할 수 있는 VR 장갑에 관한 것이다. VR 장갑은 하나 이상의 손가락들 및/또는 손 섹션들의 움직임을 추적하기 위해 복수의 관성 측정 유닛(inertial measurement unit, IMU)들을 포함할 수 있다. IMU들은, IMU가 부착될 수 있는 물체들(예컨대, 손가락 뼈들)의 배향, 위치, 및 속도를 측정하기 위한, 자이로스코프 및 가속도계와 같은 하나 이상의 모션 센서들을 포함할 수 있다. IMU는 손가락(또는 엄지손가락) 뼈에 근접하게 위치될 수 있고, 대응하는 뼈의 관성 모션을 측정할 수 있다. 일부 예에서, VR 장갑은 지자기장(geo-magnetic field)의 방향을 결정하기 위해 자력계들을 포함할 수 있다. VR 장갑은 또한, 용량성 터치, 및/또는 손가락끝들 사이의 접촉 감지를 가능하게 하는, 헤딩(heading)을 감지하기 위한 복수의 전극들과 같은, 하나 이상의 다른 전자 컴포넌트들을 포함할 수 있다. VR 장갑은 또한, 힘 센서들, 햅틱 피드백을 위한 액추에이터들, 온도 센서들, 및 히터들을 포함할 수 있다. VR 장갑은 로직(logic), 예컨대, 온-보드(on-board) 제어기, 커넥터, 송수신기, 배터리 등을 추가로 포함할 수 있다. 하나 이상의 버스들이 전자 컴포넌트들 사이의 신호들을, 예를 들어, 온-핸드(on-hand) 제어기로 전달하는 데 사용될 수 있다. VR 장갑은 하나 이상의 (예를 들어, 모든) 전자장치 컴포넌트들이 장갑 내로 편조(knit)되거나 직조(weave)될 수 있는 패브릭 장갑일 수 있다. 일부 예에서, 패브릭은 전도성 실들을 사용하여 함께 바느질될 수 있다. 본 발명의 예들은, IMU들에 의해 검출된 모션을 국소 프레임(들)과 비교함으로써 자력계들을 사용하지 않고서 장갑의 움직임을 검출하는 것을 추가로 포함할 수 있다. 헤딩 초기화는 회전 최적화기들을 포함할 수 있고, 헤딩 보정은 IMU들과 연관된 노드들의 불규칙성(예컨대, 충돌, 회전 등)들을 검출하는 것을 포함할 수 있다.
도 1은 본 발명의 예들에 따른 사람 손의 예시적인 모델을 도시한다.
도 2는 본 발명의 예들에 따른 예시적인 VR 장갑의 배면도를 도시한다.
도 3은 본 발명의 예들에 따른 예시적인 VR 장갑의 블록도를 도시한다.
도 4a는 본 발명의 예들에 따른, VR 장갑을 사용하여 손과 손가락들의 위치들 및 모션들을 결정하기 위한 예시적인 프로세스를 도시한다.
도 4b는 본 발명의 예들에 따른 예시적인 손 레퍼런스(hand reference)를 도시한다.
도 4c는 본 발명의 예들에 따른, 손 레퍼런스에 포함된 복수의 손가락들 및 엄지손가락에 대한 예시적인 국소 프레임들을 도시한다.
도 5는 본 발명의 예들에 따른, x-회전 최적화기를 사용하여 초기 헤딩을 결정하기 위한 예시적인 프로세스를 도시한다.
도 6a는 본 발명의 예들에 따른, 둘 이상의 손가락들의 예시적인 충돌을 도시한다.
도 6b는 본 발명의 예들에 따른, 둘 이상의 노드들의 예시적인 회전들을 도시한다.
예들의 다음 설명에서, 첨부된 도면들이 참조되며, 실시될 수 있는 특정 예들이 도면들 내에서 예시로서 도시된다. 다양한 예들의 범주를 벗어나지 않으면서 다른 예들이 이용될 수 있고 구조적 변경이 행해질 수 있다는 것이 이해되어야 한다.
다양한 기술들 및 프로세스 흐름 단계들이 첨부된 도면들에 도시된 예들을 참조하여 상세히 기술될 것이다. 이하의 설명에서, 본 명세서에 기술되거나 언급된 하나 이상의 양태 및/또는 특징의 철저한 이해를 제공하기 위해 다수의 구체적인 세부사항들이 기재된다. 그러나, 본 명세서에 기술되거나 언급된 하나 이상의 양태들 및/또는 특징들이 이러한 구체적인 세부사항들의 일부 또는 전부 없이 실시될 수 있다는 것이 당업자에게 명백할 것이다. 다른 경우들에서, 공지된 프로세스 단계들 및/또는 구조들은 본 명세서에 기술되거나 언급된 양태들 및/또는 특징들의 일부를 모호하게 하지 않도록 상세히 기술되지 않았다.
또한, 프로세스 단계들 또는 방법 단계들이 순차적인 순서로 기술될 수 있지만, 이러한 프로세스들 및 방법들은 임의의 적합한 순서로 동작하도록 구성될 수 있다. 다시 말하면, 본 발명에서 설명될 수 있는 단계들의 임의의 시퀀스 또는 순서는, 그 자체로는, 단계들이 그 순서대로 수행되어야 한다는 요구사항을 나타내지는 않는다. 게다가, 일부 단계들은, (예컨대, 하나의 단계가 다른 단계 후에 기술되기 때문에) 비동시적으로 발생하는 것으로서 기술되거나 암시되어 있음에도 불구하고, 동시에 수행될 수 있다. 또한, 프로세스를 도면에 도시하는 것에 의해 프로세스를 예시하는 것은 예시된 프로세스가 그에 대한 다른 변형들 및 수정을 제외한다는 것을 암시하지 않고, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 예들 중 하나 이상에 필요하다는 것을 암시하지 않으며, 예시된 프로세스가 선호된다는 것을 암시하지 않는다.
가상 현실(VR) 기술은 군사 훈련, 교육 학습, 및 비디오 게임과 같은 많은 응용예에 사용될 수 있다. VR 기술은 가상 환경 및 그 가상 환경에서의 사용자의 물리적 존재를 시뮬레이션하기 위해 하나 이상의 전자 디바이스들을 사용할 수 있다. 한 가지 유형의 VR 기술은, 사용자의 현실 환경에 컴퓨터 생성 객체들 또는 콘텐츠가 보완될 수 있는 증강 현실(AR) 기술이다. 다른 유형의 VR 기술은, 사용자의 현실 환경 및 가상 환경이 서로 혼합될 수 있는 혼합 현실(MR) 기술이다.
VR/AR/MR 기술은 하나 이상의 전자 디바이스들을 사용하여 시뮬레이션될 수 있다. 하나의 전자 디바이스는 VR 헤드셋일 수 있는데, 여기서 사용자는 시뮬레이션된 가상 환경을 보기 위해 VR 헤드셋을 사용할 수 있다. 사용자가 여기저기 둘러보기 위해 그의 또는 그녀의 머리를 움직임에 따라, 헤드셋에 포함된 디스플레이는 사용자의 머리 움직임을 반영하도록 업데이트될 수 있다. 다른 전자 디바이스는 하나 이상의 카메라들을 포함할 수 있다. 하나 이상의 카메라들은 AR 기술에서 사용자의 현실 환경을 캡처하는 데 사용될 수 있고/있거나 위치 추적을 위해 사용될 수 있다. 또 다른 전자 디바이스는 VR 장갑들을 포함할 수 있다. VR 장갑들은 사용자의 손들에 착용될 수 있고, 사용자가 가상 객체들을 실시간으로 터치하고, 느끼고, 홀딩하게 할 수 있다. VR 장갑들은 또한, 가상 표면들과 상호작용하는 데, 제스처들을 이용하여 입력들을 전달하는 데, 다른 (예컨대, 가상) 참가자들과의 상호작용들에서 표현가능 감정들을 디스플레이하는 데, 등에 사용될 수 있다. 가려짐 없이 사용자의 손들 및 손가락들의 위치들 및 모션들을 정확하게 검출할 수 있는 VR 장갑들이 요구될 수 있다. VR 장갑들은 또한 현실 환경에서 물체들과 상호작용하는 데 사용될 수 있지만, 그러한 물체들은, 예를 들어, VR 헤드셋에 디스플레이될 때 변형될 수 있다.
본 발명은 개별 손가락 및 엄지손가락 뼈들의 움직임을 측정할 수 있는 VR 장갑에 관한 것이다. VR 장갑은 하나 이상의 손가락 및/또는 손 섹션들의 움직임을 추적하기 위해 복수의 IMU들을 포함할 수 있다. IMU는 손가락(또는 엄지손가락) 뼈에 근접하게 위치될 수 있고, 대응하는 뼈의 관성 모션을 측정할 수 있다. 일부 예에서, VR 장갑은 지자기장의 방향을 결정하기 위해 자력계들을 포함할 수 있다. VR 장갑은 또한, 용량성 터치, 및/또는 손가락끝들 사이의 접촉 감지를 가능하게 하는, 헤딩을 감지하기 위한 복수의 전극들과 같은, 하나 이상의 다른 전자 컴포넌트들을 포함할 수 있다. VR 장갑은 또한, 힘 센서들, 햅틱 피드백을 위한 액추에이터들, 온도 센서들, 및 히터들을 포함할 수 있다. VR 장갑은 로직, 예컨대, 온-보드 제어기, 커넥터, 송수신기, 배터리 등을 추가로 포함할 수 있다. 하나 이상의 버스들이 전자 컴포넌트들 사이의 신호들을, 예를 들어, 온-핸드("온-글러브(on-glove)"로 또한 지칭됨) 제어기로 전달하는 데 사용될 수 있다. VR 장갑은 하나 이상의 (예를 들어, 모든) 전자장치 컴포넌트들이 장갑 내로 편조되거나 직조될 수 있는 패브릭 장갑일 수 있다. 일부 예에서, 패브릭은 전도성 실들을 사용하여 함께 바느질될 수 있다. 본 발명의 예들은, IMU들에 의해 검출된 모션을 국소 프레임(들)과 비교함으로써 자력계들을 사용하지 않고서 장갑의 움직임을 검출하는 것을 추가로 포함할 수 있다. 헤딩 초기화는 회전 최적화기들을 포함할 수 있고, 헤딩 보정은 IMU들과 연관된 노드들의 불규칙성(예컨대, 충돌, 회전 등)들을 검출하는 것을 포함할 수 있다.
본 발명에 따른 방법들 및 장치의 대표적인 응용예들이 이 섹션에 기술된다. 이러한 예들은 단지 맥락을 부가하고 설명된 예들의 이해를 돕기 위하여 제공된다. 따라서, 기술된 예들이 구체적인 세부사항들의 일부 또는 전부가 없어도 실시될 수 있다는 것이 당업자에게 명백할 것이다. 다른 경우들에서, 잘 알려진 프로세스 단계들은 기술된 예들을 불필요하게 불명료하게 하지 않기 위해 상세히 기술되었다. 다른 응용예들도 가능하며, 따라서 이하의 예들은 제한하는 것으로 간주되어서는 안된다.
예시적인 VR 시스템은 VR 헤드셋, 호스트 디바이스, 및 VR 장갑들을 포함할 수 있다. VR 헤드셋 및 VR 장갑들은 사용자에게 부착될 수 있다. VR 헤드셋은 적어도 그의 디스플레이가 사용자의 눈 앞에 위치되도록 위치될 수 있다. VR 헤드셋은 시뮬레이션된 가상 환경을 사용자에게 디스플레이하도록 구성될 수 있다. 사용자가 여기저기 둘러보기 위해 그의 또는 그녀의 머리를 움직임에 따라, VR 헤드셋에 포함된 디스플레이는 사용자의 머리 움직임을 반영하도록 업데이트될 수 있다. 예를 들어, 사용자가 그의 또는 그녀의 머리를 아래로 숙이는 경우, 디스플레이는 사용자에게 지면을 보여줄 수 있다. 호스트 디바이스는 개인용 컴퓨터, 모바일 전화기, 및/또는 웨어러블 디바이스와 같은 전자 디바이스를 포함할 수 있다. 호스트 디바이스는 VR 시스템에 포함된 하나 이상의 컴포넌트들과 통신할 수 있다. 예를 들어, 호스트 디바이스는 하나 이상의 환경들(예컨대, 사용자가 위치되는 시뮬레이션된 환경의 룸(room))을 저장할 수 있고, 환경에 관한 정보를 VR 헤드셋으로 전송할 수 있다.
VR 장갑들은 사용자의 손들에 착용될 수 있고, 사용자의 손들 및 손가락들의 모션(예를 들어, 위치들 및 속도들)을 추적할 수 있다. 일부 경우에, VR 장갑들은 사용자가 가상 객체들을 실시간으로 터치하고, 느끼고, 홀딩하게 할 수 있다. 일부 예에서, VR 장갑들의 하나 이상의 기능들 및 특징들은 사용자가 카메라들의 부재 하에서 그리고 가려짐이 감소된 상태에서 시뮬레이션된 가상 환경과 상호작용하게 할 수 있다. VR 장갑들은 또한, 시스템 내의 하나 이상의 다른 컴포넌트들(예컨대, 호스트 디바이스)과 통신할 수 있다. 예를 들어, 호스트 디바이스는 제어 객체들(예컨대, 커피 머그)의 하나 이상의 특성들을 저장할 수 있고, 제어 객체에 관한 정보(예컨대, 형상, 위치, 느낌 등)를 VR 장갑들로 전송할 수 있다.
도 1은 본 발명의 예들에 따른 사람 손의 예시적인 모델을 도시한다. 사람 손(131)은 27개의 자유도를 가질 수 있다. 4개의 손가락들(101) 각각은 굽힘(flexion) 또는 신전(extension)을 허용할 수 있는 원위 뼈(103A)와 중간 뼈(103B)와 근위 뼈(103C) 사이에 위치된 관절들로 인해 4개의 자유도를 가질 수 있다. 4개의 손가락들(101) 각각은 또한, 외전(abduction) 또는 내전(adduction)을 허용할 수 있는 손바닥 뼈(103D)와 연관된 관절을 갖는다. 엄지손가락(105)은 굽힘 또는 신전을 허용할 수 있는 원위 뼈(107A)와 근위 뼈(107C) 사이에 위치된 관절로 인해 5개의 자유도를 가질 수 있다. 엄지손가락(105)의 근위 뼈(107C)와 손바닥 뼈(107D) 사이에 위치된 관절은 굽힘(또는 신전) 및 외전(또는 내전)을 허용할 수 있다. 더욱이, 엄지손가락(105)의 손바닥 뼈(107D)와 손목 뼈(107E) 사이에 위치된 관절은 굽힘(또는 신전) 및 외전(또는 내전)을 허용할 수 있다. 추가로, 손목(109)은 6개의 자유도를 가질 수 있는데, 여기서 사용자의 손목 움직임은 굽힘 또는 신전, 외전 또는 내전, 및 회외(supination) 또는 회내(pronation)를 포함할 수 있다. 손의 다수의 자유도를 추적할 수 있는 VR 장갑이 바람직할 수 있다.
VR 장갑의 개요
도 2는 본 발명의 예들에 따른 예시적인 VR 장갑의 배면도를 도시한다. VR 장갑(230)은 제어기(223)의 하나 이상의 섹션들이 사용자의 손의 손등에 근접하게 위치될 수 있도록 사용자의 손에 착용될 수 있다. 즉, 도 2의 배면도는 사용자의 손의, 그의 또는 그녀의 손등 면의 도면일 수 있다. 일부 경우에, 제어기의 하나 이상의 섹션들은 사용자의 손바닥에 근접하게 위치될 수 있다. VR 장갑(230)은 복수의 전자 컴포넌트들을 포함할 수 있으며, 여기서 전자 컴포넌트들의 일부 또는 전부가 VR 장갑(230)의 재료 내로 편조 또는 직조될 수 있다. 전자 컴포넌트들은 복수의 관성 측정 유닛(IMU)들(202), 복수의 힘 센서들(206), 복수의 햅틱 유닛들(도시되지 않음), 복수의 리셋 전극들(214), 제어기(223), 복수의 버스들(222), 하나 이상의 LED들(226), 배터리(234), 및 송수신기(238) 중 하나 이상을 포함할 수 있다. 도면이 사용자의 손의 손등에 근접하게 위치된 전자 컴포넌트들을 예시하지만, 본 발명의 예들은 사용자의 손목 또는 다른 위치들에 근접하게 위치된 하나 이상의 컴포넌트들(예컨대, 배터리(234))을 포함할 수 있다. 예를 들어, 배터리(234)는 제어기(223)(도시되지 않음)의 상부에 있는 인클로저(enclosure)의 상부에 장착될 수 있다.
IMU들(202)은 사용자의 손 및/또는 손가락들의 모션을 캡처하기 위해 사용자의 뼈의 가속도 및 회전 속도를 측정하도록 구성될 수 있다. 복수의 힘 센서들(206)은 사용자의 손가락에 인가되는 힘을 측정하도록 구성될 수 있다. 복수의 햅틱 유닛들(도시되지 않음)은 진동 및/또는 힘을 시뮬레이션함으로써 터치의 감각을 재현하도록 구성될 수 있다. 복수의 리셋 전극들(214)은 (아래에서 논의되는) 헤딩을 감지하고/하거나, 용량성 터치를 가능하게 하고/하거나, 손가락들 사이에 접촉 데이터를 제공하기 위해 리셋 및/또는 캘리브레이션 절차와 함께 사용될 수 있다. 제어기(223)는 복수의 버스들(222)을 통해 전자 컴포넌트들과 통신하도록 구성된 로직을 포함할 수 있다. LED(들)(226)는 사용자에게 광학 피드백을 제공하도록 구성될 수 있다. 배터리(234)는 전력을 전자 컴포넌트들에 제공하도록 구성될 수 있다. 송수신기(238)는 외부 디바이스(예컨대, VR 헤드셋 및/또는 호스트 디바이스)와 통신하도록 구성될 수 있다.
도면에 도시되어 있지는 않지만, 본 발명의 예들은 환경의 온도 및/또는 사용자의 온도를 결정하기 위해 하나 이상의 온도 센서들을 포함할 수 있다. 일부 예에서, 하나 이상의 IMU들은 온도 센서를 포함할 수 있다. 본 발명의 예들은 온도를 (예컨대, 사용자가 뜨거운 커피 머그잔을 파지하는 것을) 시뮬레이션하기 위한 하나 이상의 히터들을 추가로 포함할 수 있다. 일부 예에서, VR 장갑(230)은 손가락끝들에 위치된 하나 이상의 전극들(도시되지 않음)을 포함할 수 있다. 이들 전극은 터치 감응형 (예컨대, 용량성) 디바이스를 이용한 터치 입력에 사용될 수 있다.
VR 장갑(230)은 미세 레벨 모션 캡처가 가능할 수 있다. 즉, VR 장갑(230)은, 예를 들어, 전체 손가락의 움직임(예를 들어, 사용자가 그의 또는 그녀의 집게손가락을 흔드는 것)과 손가락 관절의 움직임(예컨대, 사용자가 집게손가락을 굽히는 것) 사이를 식별할 수 있다. 도면에 도시되어 있지는 않지만, VR 장갑(230)의 다른 면(예를 들어, 손바닥 면)은 하나 이상의 전자 컴포넌트들(예를 들어, IMU, 햅틱, 힘 센서 등)을 포함할 수 있다. VR 장갑(230)에 포함된 전자 컴포넌트들의 특징 및 기능은 이하에서 상세히 논의될 것이다.
도 3은 본 발명의 예들에 따른 예시적인 VR 장갑의 블록도를 도시한다. VR 장갑(330)은 복수의 손가락 섹션들(301) 및 손 섹션(311)을 포함할 수 있다. 손가락 섹션들(301)은 집게손가락, 가운뎃손가락, 반지손가락, 및 새끼손가락과 같은 사용자의 손가락들(예컨대, 도 1에 도시된 손가락들(101)) 중 하나 이상에 근접하게 위치될 수 있다. 엄지손가락 섹션(305)은 사용자의 엄지손가락(예컨대, 도 1에 도시된 엄지손가락(105))에 근접하게 위치될 수 있다.
모션 캡처
VR 장갑(330)은 하나 이상의 손가락들 및/또는 손 섹션들의 움직임을 추적하기 위해 복수의 IMU들(예를 들어, 도 3에 도시된 IMU들(302))을 포함할 수 있다. 하나 이상의 (예컨대, 각각의) 손가락 섹션들(301)은 복수의 IMU들(302)을 포함할 수 있다. IMU(302)는 손가락 뼈(예를 들어, 도 1에 도시된 원위 뼈(103A))에 근접하게 위치될 수 있다. 일부 예에서, 하나 이상의 (예를 들어, 각각의) IMU들(302)은 마이크로제어기 유닛(microcontroller unit, MCU)(304)에 결합될 수 있다. IMU(302)는 대응하는 손가락 또는 엄지손가락 뼈의 관성 모션(예컨대, 가속도 및 회전 속도)을 측정할 수 있고, 정보를 MCU(304)에 전달할 수 있다. MCU(304)는 정보를 처리하고/하거나 정보를 제어기(323)에 전달할 수 있다. 일부 예에서, 각각의 IMU(302)는 고유 MCU(304)에 결합될 수 있다. 일부 예에서, 다수의 IMU들(302)은 단일 MCU(304)에 결합될 수 있다. 도면에 도시된 바와 같이, 본 발명의 예들은 하나의 손가락 뼈(예컨대, 도 1에 도시된 근위 뼈(103C))의 관성 모션을 측정하도록 구성되는 하나의 IMU(302) 및 하나의 MCU(304)를 포함할 수 있다. 일부 예에서, 각각의 손가락 섹션(301)은 3개의 IMU들(302)(및/또는 3개의 MCU들(304))을 포함할 수 있다. 일부 예에서, 둘 이상의 (예컨대, 일부) 손가락 섹션들(301)은 각각 3개의 IMU들(302)을 포함할 수 있다. 추가적으로, 엄지손가락 섹션(305)은 그의 3개의 뼈들(예를 들어, 도 1에 도시된 원위 뼈(107A), 근위 뼈(107C), 및 손바닥 뼈)에 대해 3개의 IMU들(302)(및/또는 2개의 MCU들(304))을 포함할 수 있다. 추가적으로, 하나 이상의 IMU들이 사용자의 손바닥(예를 들어, 도 1에 도시된 손바닥 뼈(107D))에 근접하게 위치될 수 있다. 일부 경우에, 손가락 섹션들(301) 및 엄지손가락 섹션(305)은 총 16개 이상의 IMU들(302)을 포함할 수 있다.
이러한 방식으로, IMU(302)는 고유한 손가락 뼈에 근접하게 위치될 수 있고, 그 특정 손가락 뼈의 모션을 측정할 수 있다. 일부 예에서, IMU(302)는 세 방향들로의 가속도를 검출하도록 구성된 하나 이상의 다축 가속도 모션 센서들(예컨대, 가속도계)을 포함할 수 있다. 예를 들어, IMU(302)는 z-축 방향 이동, y-축 방향 이동, 및 x-축 방향 이동을 검출할 수 있는 3-축 IMU일 수 있다. 일부 예에서, IMU(302)는 총 6개의 축들에 대한 회전 이동을 검출하기 위해 하나 이상의 센서들(예컨대, 3-축 자이로스코프)을 포함할 수 있다.
각각의 IMU(302)는 각각의 손가락 뼈의 측정된 가속도 및 회전 이동을 나타내는 신호를 생성할 수 있고, 하나 이상의 신호 라인들 또는 버스들(322)을 통해 제어기(323)와 같은 제어기에 그 신호를 전송할 수 있다. 일부 예에서, 버스(322)는 특정 손가락 섹션(301) 또는 엄지손가락 섹션(305)과 연관될 수 있다(예컨대, 전용될 수 있다). 제어기(323)는 각각의 버스(322)로부터의 신호들을 개별적으로 처리하여 특정 손가락 뼈의 모션을 추적할 수 있고/있거나 손가락 관절(들)의 모션을 추적하기 위해 둘 이상의 신호들을 집합적으로 처리할 수 있다. 주어진 손가락의 움직임은, 예를 들어, 주어진 손가락과 다른 손가락 사이의 정보의 차이에 기초하여 결정될 수 있다.
IMU들(302)은 단지 가속도계들 및 자이로스코프들만을 사용하여 가속도 및 회전 이동을 결정하여, 연관된 손가락 부분의 피치(pitch), 롤(roll), 및 요(yaw)를 결정할 수 있다. 일부 예에서, IMU들은 자력계들을 포함할 수 있다. 손 및 손가락들의 위치들 및 모션들을 결정하기 위한 방법들이 아래에서 논의된다.
헤딩 보정
VR 장갑(330)은 계산된 손가락 헤딩을 보정하도록 구성된 복수의 리셋 전극들(314)을 포함할 수 있다. 위에서 논의된 바와 같이, 본 발명의 예들은 (예컨대, 자석에 근접할 때 손실 방향(losing direction)과 같은 그의 단점들로 인해) 자력계를 포함하지 않을 수 있는 IMU들을 포함할 수 있다. 일부 예에서, IMU(302)는 가속도계를 포함할 수 있다. 가속도계는 관성 가속도가 무의미할 수 있는 조건들 하에서 IMU(302)의 롤 및 피치(즉, 틸트(tilt))를 측정하는 데 사용될 수 있다. 자력계가 없는 경우, IMU는 중력에 수직인 기준 신호의 결여로 인해 헤딩(요)을 보정할 수 없다.
본 발명의 예들은 헤딩 드리프트(drift)를 보정하기 위해 리셋 전극들(314)을 사용하는 것을 포함할 수 있다. 리셋 전극들(314)은 손가락 섹션(301) 또는 엄지손가락 섹션(305)의 하나 이상의 면들을 따라서 위치될 수 있다. 리셋 전극들(314)은 인접한 리셋 전극들(314)이 전기 접촉을 이룰 수 있도록, 그리고 전기 접촉을 나타내는 신호가 생성될 수 있도록 위치될 수 있다. 예를 들어, 리셋 전극(314)이 손가락 섹션(301)의 중간 뼈들(예컨대, 도 1에 도시된 중간 뼈(103B)) 및 근위 뼈들(예컨대, 도 1에 도시된 근위 뼈(103C))을 따라서 측방 면들 상에 위치될 수 있다. 일부 예에서, 4개의 손가락 섹션들(301) 중 적어도 3개는 각각의 손가락의 서로 반대편 면들 상에 각각 위치된 리셋 전극(314A) 및 리셋 전극(314B)을 포함할 수 있다. 일부 예에서, 새끼손가락 섹션(301)은 반지손가락 섹션(301)에 더 가까운 새끼손가락 섹션(301)의 면 상에 위치된 하나의 리셋 전극(314B)만을 포함할 수 있다. 일부 예에서, 엄지손가락 섹션(305)은 손가락 섹션(301)(예컨대, 집게손가락 섹션(301))에 더 가깝게 위치된 엄지손가락 섹션(305)의 면 상에 위치된 하나의 리셋 전극(314A)만을 포함할 수 있다.
일부 예에서, 인접한 리셋 전극들(314)은 전기적으로 접촉할 수 있지만, 헤딩은 업데이트되지 않아야 한다(예컨대, 보정되지 않아야 한다). 예를 들어, 사용자의 손가락들은 교차될 수 있다. 다른 예로서, 사용자의 손가락(예컨대, 집게손가락)은 인접한 손가락에 대해 구부러질 수 있다(예컨대 가운뎃손가락에 대해 45 내지 90°로 굽혀질 수 있다). 헤딩 보정 절차가 실행되게 하는 것을 전기 접촉이 방지하기 위해, 시스템은 손가락들의 배향을 결정할 수 있다. 배향에 기초하여, 시스템은 헤딩 업데이트를 진행할 수 있거나 진행하지 않을 수 있다.
일부 예에서, 리셋 전극(314)은 전도성 패치일 수 있다. 하나의 전극이 접지에 연결될 수 있고, 다른 전극이 MCU(304)에 결합될 수 있다. 리셋 전극(314)은 신호를 MCU(304)로 송신할 수 있는데, 여기서 신호(예컨대, 1-비트 신호)는 전극 상태를 나타낼 수 있다. 일부 예에서, MCU(304)는 정보의 패킷을 제어기(323)에 송신할 수 있는데, 여기서 패킷은 전극 신호를 포함할 수 있다. 일부 예에서, 리셋 전극들(314)은 (아래에서 논의되는) 헤딩을 리셋하는 데 사용될 수 있다.
힘 감지
VR 장갑은 또한, 하나 이상의 힘 센서들(306)을 포함할 수 있다. 힘 센서(306)는, 예를 들어, VR 장갑(330)의 손가락끝들에 위치될 수 있다. 힘 센서(306)는 센서의 표면에 인가되는 힘의 크기를 측정하도록 구성될 수 있고, 측정된 힘의 크기를 나타내는 신호를 생성할 수 있다. 힘 센서(306)는 MCU(304)에 결합될 수 있다. MCU(304)는 정보를 처리하고/하거나 정보를 제어기(323)에 전달할 수 있다. 일부 예에서, 각각의 힘 센서(306)는 고유 MCU(304)에 결합될 수 있다. 일부 예에서, 다수의 힘 센서들(306)은 단일 MCU(304)에 결합될 수 있다. 도면에 도시된 바와 같이, 본 발명의 예들은 하나의 힘 센서(306), 및 하나의 손가락(예컨대, 집게손가락)에 대한 인가된 힘의 크기를 측정하도록 구성된 하나의 MCU(304)를 포함할 수 있다. 일부 예에서, 각각의 손가락은 힘 센서(306)를 가질 수 있고, VR 장갑(330)은 5개의 힘 센서(306)를 포함할 수 있다. 도면에 도시되어 있지는 않지만, VR 장갑(330)은 다른 힘 센서들(306)을 포함할 수 있다. 예를 들어, 하나 이상의 힘 센서들(306)이 사용자의 손바닥에 근접하게 (예컨대, 손 섹션(311) 내에) 위치될 수 있다. 힘 센서들(306)은 사용자의 손가락과 현실 환경 사이의 상호작용들(예컨대, 사용자가 테이블로부터 커피 머그잔을 픽업함)을 검출하는 데 사용될 수 있다.
일부 예에서, 힘 센서는 저항성 힘 센서일 수 있다. 저항성 힘 센서는, 예를 들어, 굽힘가능 부재(예컨대, 스트레인 게이지 구조물)를 포함할 수 있다. 회로가 굽힘가능 부재 상에 배치될 수 있고, 그 부재가 인가된 힘에 응답하여 굽혀질 때 저항의 변화들을 검출할 수 있다. 저항의 변화량은 힘 센서에 인가되는 힘의 크기를 나타낼 수 있다.
일부 예에서, 힘 센서는 압전 힘 센서일 수 있다. 압전 힘 센서는 힘 센서에 인가되는 힘의 크기로 인해 압전 재료 상의 압축의 양에 비례하는 전압을 생성할 수 있는 압전 재료를 포함할 수 있다.
일부 예에서, 힘 센서는 용량성 힘 센서일 수 있다. 용량성 힘 센서는 복수의 전극들을 포함할 수 있는데, 여기서 전극들 사이의 거리는 인가된 힘에 의해 영향을 받을 수 있다. 전극들을 가로지르는 커패시턴스의 변화는 전극들 사이의 거리와 관련될 수 있다. 따라서, 커패시턴스의 변화량은 힘 센서에 인가되는 힘의 크기를 나타낼 수 있다.
일부 예에서, 용량성 힘 감지는 인가된 힘이 전극들의 형상에 영향을 미칠 수 있는 복수의 변형가능 전극들을 포함할 수 있다. 전극들을 가로지르는 커패시턴스의 변화는 전극들의 형상과 관련될 수 있고, 커패시턴스의 변화량은 힘 센서에 인가되는 힘의 크기를 나타낼 수 있다.
햅틱 피드백
VR 장갑(330)은 또한, 소정 액션들에 응답하여 장갑의 일정 섹션(예를 들어, 손가락끝들에 가까운 섹션)에서 움직임을 생성하도록 햅틱 피드백을 포함할 수 있다. 하나 이상의 구동 신호들이 손가락끝에 위치된 액추에이터(308)에 인가될 수 있고, 액추에이터(308)는 손가락끝에 모션을 부여할 수 있다. 예를 들어, MR/AR 응용예들에서, 힘 센서들은 눌려질 때 햅틱 이벤트를 트리거할 수 있는 신호를 호출할 수 있는 가상 객체들(예컨대, 버튼들 또는 키들)을 가질 수 있는 실제 표면들에 응답할 수 있다. 액추에이터(308)로부터의 모션은, 예를 들어, 사용자의 손가락들이 가상 객체들을 터치하고 있을 때 텍스처 또는 클릭 피드백을 시뮬레이션하는 데 사용될 수 있다.
일부 예에서, 액추에이터는 와이어의 랩(wrap)들을 포함할 수 있는 배럴(barrel)을 갖는 솔레노이드를 포함할 수 있다. 배럴의 내부로 자기 플런저를 끌어들일 수 있는 자기장을 생성하기 위해 전류가 와이어에 인가될 수 있다. 와이어로의 전류 흐름은 플런저의 움직임을 제어하도록 조절되어, 그에 의해 모션을 부여할 수 있다.
일부 예에서, 액추에이터는 선형 모터, 회전자 모터, 또는 다른 전자기 액추에이터 구조물을 포함할 수 있다. 일부 예에서, 액추에이터는 인가된 전기 신호에 응답하여 움직임을 생성할 수 있는 압전 재료들 및 다른 구조물들로 형성될 수 있다.
일부 예에서, 하나 이상의 액추에이터들이 VR 장갑(330)의 손목 섹션에 근접하게 위치될 수 있다. 시스템은 객체와 연관된 하나 이상의 액션들(예를 들어, 시뮬레이션된 환경 내의 광이 어두워짐)에 응답하여 액추에이터를 구동시킬 수 있다.
제어기
손 섹션(311)은 제어기(323)(예컨대, 온-보드 제어기)를 포함할 수 있다. 제어기(323)는 마이크로제어기 및/또는 버스 제어기(323)와 같은 하나 이상의 회로들을 포함할 수 있다. 손 제어기(332)는 메모리(325), 커넥터(327), 및 송수신기(338)를 포함하지만 이에 제한되지 않는 하나 이상의 컴포넌트들을 포함할 수 있다. 메모리(325)는 정보를 판독하고/하거나 기록하기 위해 사용될 수 있다. 예를 들어, 손 레퍼런스 및/또는 손가락들 레퍼런스는 (아래에서 논의되는) 메모리(325)에 저장될 수 있다. 다른 예로서, 하나 이상의 컴퓨터 판독가능 저장 프로그램들이 메모리(325)에 저장될 수 있다. 커넥터(327)는, 예를 들어, 유선 통신을 위해 VR 장갑(330)을 하나 이상의 컴포넌트들(예를 들어, VR 헤드셋)에 연결하는데 사용될 수 있다. 다른 예로서, 커넥터(327)는 VR 장갑(330)을 전력 공급부에 연결하여 온보드 배터리(예를 들어, 도 2에 도시된 배터리(234))를 충전하기 위해 사용될 수 있다.
제어기(323)는 컴포넌트들로부터 신호들을 수신할 수 있고, 송수신기(338)를 통해 정보를 처리할 수 있다. 일부 예에서, 제어기(323)는 신호들을 (예컨대, 집합적으로) 호스트 디바이스(예컨대, 전술된 호스트 디바이스)로 송신할 수 있다. 일부 예에서, 제어기(323)는 VR 장갑(330)의 다른 부분 상에 전체적으로 또는 부분적으로 위치될 수 있다. 예를 들어, 제어기(323)는 사용자의 손의 손등 면 상에 있는 손바닥 뼈 위에 위치될 수 있다. 만곡된 표면(예컨대, 사용자의 손의 손등 면) 상에 위치되는 경우, 제어기(323)는 제어기(323)가 사용자의 손에 순응할 수 있도록 가요성 섹션들에 의해 분리된 복수의 강성 섹션들을 포함할 수 있다.
도면에 도시되지 않았지만, VR 장갑(330)은 하나 이상의 가속도계들을 포함할 수 있다. 하나 이상의 가속도계들 및/또는 자이로미터들은, 예를 들어, 사용자 손들이 움직이고 있지 않을 때 배향을 보정하는 데 사용될 수 있다. 예를 들어, 가속도계는 가속도계가 중력을 측정하고 관성 가속도를 측정하고 있지 않을 때 롤 및/또는 피치(즉, 틸트)의 임의의 드리프트를 보정하는 데 사용될 수 있다.
편조 재료
VR 장갑(330)은 하나 이상의 (예를 들어, 모든) 전자장치 컴포넌트들이 장갑의 패브릭 내로 통합될 수 있는 편조되거나 직조된 장갑일 수 있다. 일부 예에서, 장갑은 상이한 수의 층들을 갖는 다수의 섹션들을 갖는 패브릭을 포함할 수 있다. 예를 들어, 섹션들은 전자 컴포넌트가 존재하지 않을 수 있는 단일 층을 포함할 수 있다. 전자 컴포넌트(예를 들어, IMU)가 존재하는 경우, 패브릭은 층들 사이에 전자 컴포넌트를 고정하는 포켓을 갖는 2-층 패브릭일 수 있다. 전자 컴포넌트들이 각각 위치될 수 있다. 예를 들어, IMU들은 손가락 뼈의 중심에 근접하게 위치될 수 있다. 장갑의 패브릭 내로 직조될 수 있는 전자 컴포넌트는 IMU들, 전극들, 및 제어기를 포함할 수 있지만, 이에 제한되지 않는다. 일부 예에서, 패브릭은 전도성 실들을 사용하여 함께 바느질될 수 있다. 다른 예로서, 전도성 실, 야드, 또는 브레이드(braid)가 다른 비전도성 실과 동시에 편조되어 VR 장갑을 생성할 수 있다. 예를 들어, 버스들(322)은 전체 편조 구조물의 적어도 일부로서 포함되는 전도성 실들로 형성될 수 있다. 다른 예로서, 전도성 실들은 하나 이상의 컴포넌트들을 함께 전기적으로 결합시킬 수 있고/있거나 신호들을 라우팅(routing)하기 위해 사용될 수 있다. 일부 경우에, 버스들(322)은 전도성 실들을 포함할 수 있다.
VR 장갑의 동작
도 4a는 본 발명의 예들에 따른, VR 장갑을 사용하여 손과 손가락들의 위치들 및 모션들을 결정하기 위한 예시적인 프로세스를 도시한다. 시스템에 포함된 VR 장갑(예를 들어, 도 2에 도시된 VR 장갑(230)) 및/또는 하나 이상의 다른 컴포넌트들(예컨대, 호스트 디바이스 및/또는 VR 헤드셋)은 시스템에 포함된 하나 이상의 다른 컴포넌트들과의 통신을 확립할 수 있다(프로세스(400)의 단계(402)). 시스템 내의 컴포넌트들 사이의 통신을 확립하는 것은 하나 이상의 송수신기들(예컨대, 도 2에 도시된 송수신기(238), 도 3에 도시된 송수신기(338) 등)을 활용하는 것을 포함할 수 있다. 송수신기들은 Bluetooth 또는 Wi-Fi와 같은 프로토콜들을 사용하여 무선으로 통신할 수 있다. 일부 경우에, VR 장갑은 호스트 디바이스 또는 다른 VR 장갑과의 무선 통신 기술을 사용하여 페어링을 확립할 수 있다. 디바이스들이 페어링되는 동안, 호스트 디바이스/VR 장갑은 VR 장갑에 정보를 송신할 수 있거나, 그 반대로도 송신할 수 있다. 예를 들어, 호스트 디바이스는 (예를 들어, 단계(404)에서 사용된) 손 레퍼런스 정보를 VR 장갑에 송신할 수 있다. 일부 예에서, 장갑은 (예를 들어, 적합한 케이블들을 사용하여) 다른 컴포넌트에 대한 유선 연결을 제공하기 위해 전기 커넥터(예를 들어, 도 3에 도시된 커넥터(327))를 활용할 수 있다.
손 레퍼런스(490)는 손 레퍼런스를 검색하거나 결정함으로써 제공될 수 있다(프로세스(400)의 단계(404)). 예시적인 손 레퍼런스가 도 4b에 도시되어 있다. 일부 예에서, 손 레퍼런스(490)는 라이브러리 파일(예를 들어, 도 3에 도시된 메모리(325)에 위치된 파일)로부터 검색될 수 있다.
일부 예에서, 손 레퍼런스(490)는 하나 이상의 측정치들 및/또는 이미지들에 기초하여 생성될 수 있다. 예를 들어, 호스트 디바이스는 사용자가 호스트 디바이스의 스크린 상에 그의 또는 그녀의 손을 배치하게 할 수 있는 애플리케이션을 포함할 수 있다(대안적으로, 호스트 디바이스는 디지털 이미지를 촬영하거나 수신할 수 있다). 애플리케이션은 사용자의 손의 이미지를 촬영할 수 있고, 하나 이상의 측정치들(예컨대, 하나 이상의 손가락 뼈들의 길이, 사용자의 손가락들이 펼쳐졌을 때 손가락들 사이의 거리 등)을 자동으로 결정할 수 있다. 하나 이상의 최적화 및/또는 캘리브레이션 단계들이 측정치들을 정제하기 위해 수행될 수 있다. 추가적으로, 본 발명의 예들은 사용자의 손에 대한 모션의 범위를 결정하는 것(예를 들어, 기록하는 것을 포함함)을 포함할 수 있다. 모션의 범위는 사용자의 손가락들 및/또는 관절들의 움직임의 각도를 제한하기 위해 사용될 수 있다.
시스템은 손 초기화를 위한 하나 이상의 단계들을 수행할 수 있다. 초기화는 사용자의 손의 로케이션 및/또는 위치를 결정하는 것을 포함할 수 있다. 예를 들어, 호스트 디바이스는 사용자에게 그의 또는 그녀의 손을 소정 위치에 배치(예컨대, 손바닥이 중력의 방향에 수직인 테이블상판을 터치함)하라는 명령어들을 제공할 수 있다. 사용자는 그의 또는 그녀의 손을 특정 위치에 배치할 수 있고, VR 장갑은 (예를 들어, IMU들을 사용하여) 그 특정 위치에 있는 사용자의 손의 측정치(들)를 취할 수 있고, VR 장갑은 측정치들에 기초하여 손 레퍼런스를 설정할 수 있다. 일부 예에서, 측정치들을 취하는 것은 사용자의 손의 로케이션 및/또는 위치를 결정하기 위해 하나 이상의 카메라들(도시되지 않음) 및/또는 하나 이상의 광 센서들(도시되지 않음)을 사용하는 것을 포함할 수 있다. 카메라(들) 및/또는 광 센서(들)는 호스트 디바이스(또는 장갑과 같은 하나 이상의 다른 컴포넌트들)가 명령어들을 제공하지 않은 상태에서 측정치들을 취할 수 있다.
시스템은 손가락들의 초기화를 수행할 수 있다. 일부 예에서, 호스트 디바이스는 또한, 사용자에게 그의 또는 그녀의 손가락들을 소정 위치에 배치(예컨대, 손가락들이 또한 중력의 방향에 수직인 테이블상판을 터치함)하라는 명령어들을 제공할 수 있다. 사용자는 그의 또는 그녀의 손가락들을 특정 위치(들)에 배치할 수 있고, VR 장갑은 (예컨대, IMU들, 카메라들, 광 센서들 등을 사용하여) 측정치(들)를 취할 수 있고, VR 장갑은 측정치들에 기초하여 손가락들 레퍼런스 정보를 포함한 손 레퍼런스를 설정할 수 있다. 일부 예에서, 손가락들 레퍼런스를 결정하기 위해 측정치들을 취하는 것은 손 레퍼런스를 결정하기 위한 측정치들과 동시에 일어날 수 있다(예컨대, 프로세스(400)의 단계(406)).
손 레퍼런스 정보를 사용하여, 시스템은 헤딩 초기화를 수행할 수 있다(프로세스(400)의 단계(410)). 헤딩 초기화 단계(들)는 초기 헤딩이 측정되고 결정되는 단계(들)일 수 있다. IMU들을 위한 자력계들을 사용하지 않는 경우, 시스템은 헤딩 초기화 및 보정을 위해 다른 컴포넌트들에 의존할 수 있다. 헤딩 초기화 및 보정을 위한 방법들이 아래에서 논의된다. 헤딩 초기화 단계들은 (아래에서 논의되는) 도 4b에 도시된 손 레퍼런스(490) 상의 개별 손가락 노드들(488)에 대한 헤딩을 결정하는 것을 포함할 수 있다.
일단 시스템이 손 레퍼런스 정보 및 초기 헤딩 정보를 가지면, 시스템은 VR 장갑으로 VR 환경을 시뮬레이션하기 시작할 수 있다(프로세스(400)의 단계(412)). VR 장갑은 하나 이상의 손가락들 및/또는 사용자의 손이 움직인 때를 결정할 수 있다(프로세스(400)의 단계(414)). 시스템은 손 레퍼런스(490)를 손 및 (예컨대, 모든) 손가락들 중 하나 이상에 대한 레퍼런스로서 사용할 수 있다. 각각의 손가락 노드(488)는, 도 4c에 도시된 바와 같이, 국소 프레임(492)을 가질 수 있다. 손가락 노드들(488) 사이에는 평면(489)이 있을 수 있는데, 이는 (예컨대, 손가락/엄지손가락 뼈들 사이의 각도의 절반으로) 사용자의 관절을 통과하는 평면을 나타낼 수 있다. 주어진 노드(488)의 국소 프레임(492)은 IMU의 현재 로케이션 및 위치를 나타낼 수 있다. 시스템은 주어진 IMU(예컨대, 도 3에 도시된 IMU(302))의 (예컨대, IMU의 신호의 변화에 의해 결정된) 국소 프레임의 변화를 검출할 수 있다(프로세스(400)의 단계(416)). 제어기(예컨대, 도 3에 도시된 제어기(323))는 각각의 IMU로부터, 국소 프레임(492)을 나타낼 수 있는 하나 이상의 신호들을 수신할 수 있다(프로세스(400)의 단계(418)). 제어기는 수신된 신호 정보를 각각의 IMU의 국소 프레임과 비교할 수 있다(프로세스(400)의 단계(420)). 제어기는 국소 프레임과 손 레퍼런스 사이의 차이를 사용하여 IMU의 움직임을 결정할 수 있다(프로세스(400)의 단계(422)). IMU의 움직임은 IMU가 근접하게 위치되는 손가락 뼈 및/또는 손 뼈의 움직임을 반영할 수 있다.
일부 예에서, 제어기는 모션과 연관된 IMU들 및 모션과 연관되지 않은 IMU들로부터 신호 정보를 수신할 수 있다. 제어기는 모든 정보를 처리하여 어느 IMU들이 모션과 연관되는지를 결정할 수 있다. 다른 예에서, 제어기는 단지 모션과 연관된 IMU들로부터의 신호 정보만을 수신할 수 있다. 일부 예에서, 제어기는 주기적으로 (예컨대, 미리결정된 시간 간격들로) 하나 이상의 (예컨대, 모든) IMU들로부터의 신호 정보를 측정할 수 있다. 제어기가 수신하는 신호 정보는 IMU가 움직임과 연관된다는 표시를 포함할 수 있고, 또한 가속도, 회전 속도, 및 움직임의 방향에 관한 정보를 포함할 수 있다. 예를 들어, 도 4c에 도시된 바와 같이, 신호 정보는 주어진 국소 프레임(492)의 x-축(494), y-축(496), 및/또는 z-축(498)에서의 변화 및/또는 현재 위치에 관한 정보를 포함할 수 있다.
VR 장갑은 하나 이상의 손가락들 및/또는 장갑의 다른 부분들(예를 들어, 도 3에 도시된 손 섹션(311))이 힘 입력과 같은 입력을 경험하는지 여부를 결정할 수 있다(프로세스(400)의 단계(424)). 하나 이상의 힘 센서들(예컨대, 도 2에 도시된 힘 센서들(206))은 (앞서 논의된 바와 같이) 센서의 표면에 인가되는 힘의 크기를 측정할 수 있다(예컨대, 사용자의 손가락들은 가상 객체를 터치하고 있다). 일부 예에서, 힘 센서들은 힘 입력이 제어기에 수신되었음을 나타내는 하나 이상의 신호들을 송신할 수 있다. 하나 이상의 신호들은 힘의 크기와 같은 힘에 관한 정보를 포함할 수 있다. 일부 예에서, 제어기는 주기적으로 (예컨대, 미리결정된 시간 간격들로) 하나 이상의 (예컨대, 모든) 힘 센서들로부터의 신호 정보를 측정할 수 있다. 일부 경우에, 제어기는 모든 힘 센서들로부터 신호 정보를 수신할 수 있고, 힘 입력과 연관된 힘 센서와 연관된 정보를 처리할 수 있다.
추가적으로, 시스템은 하나 이상의 액추에이터들을 통해 햅틱 피드백을 제공할지 여부를 결정할 수 있다(프로세스(400)의 단계(426)). 하나 이상의 액추에이터들(예컨대, 도 3에 도시된 액추에이터(308))은 장갑의 섹션(예를 들어, 손가락끝)에 모션을 부여할 수 있다. 제어기는 움직임을 생성하기 위해 액추에이터(및/또는 액추에이터가 결합되어 있는 MCU)에 하나 이상의 신호들을 송신할 수 있다. 일부 예에서, 제어기는 검출된 힘 입력에 응답하여 신호들을 액추에이터에 송신할 수 있다(예컨대, 프로세스(400)의 단계(424)).
제어기(예컨대, 도 4에 도시된 제어기(323) 및/또는 VR 헤드셋 상에 위치된 제어기)는 단계(414) 내지 단계(426)의 모션들과 연관된 정보를 전송 및/또는 수신할 수 있고, 시뮬레이션된 환경을 업데이트할 수 있다(프로세스(400)의 단계(428)). 일부 예에서, 하나 이상의 다른 컴포넌트들(예컨대, 카메라들, 광 센서들, 도 2에 도시된 리셋 전극들(214))은 사용자의 손 움직임, 로케이션, 및 위치 중 하나 이상과 관련된 동일한 및/또는 추가의 정보를 제공할 수 있다. 아래에서 논의되는 바와 같이, 도 4에 도시된 단계들 중 하나 이상 동안 또는 그 사이에, 시스템은 헤딩 보정을 위한 단계들을 거칠 수 있다.
헤딩 초기화
자력계 없이, 각각의 IMU의 초기 헤딩들은 다른 방법들 및 컴포넌트들을 사용하여 결정될 수 있다. 하나 이상의 단계들이 헤딩 초기화를 위해 수행될 수 있다(예컨대, 도 4에 도시된 프로세스(400)의 단계(410)). 예를 들어, VR 장갑은 x-회전 최적화기 및/또는 y-회전 최적화기를 사용할 수 있다.
도 5는 본 발명의 예들에 따른, 회전 최적화기를 사용하여 초기 헤딩을 결정하기 위한 예시적인 프로세스를 도시한다. 프로세스(500)는 호스트 디바이스가 사용자에게 그의 또는 그녀의 손을 소정 위치에 위치시키라는 명령어들을 제공하는 것으로 시작할 수 있다(단계(502)). 예를 들어, 명령어들은 손바닥이 중력에 수직일 수 있도록(예컨대, 사용자의 손바닥이 호스트 디바이스의 스크린과 대면하고 있을 수 있도록) 사용자에게 그의 또는 그녀의 손을 위치시킬 것을 요청할 수 있고, 이는 x-최적화기로 지칭된다. 사용자는 그의 또는 그녀의 손을 특정 위치에 배치할 수 있다(프로세스(500)의 단계(504)). 명령어들은 사용자에게 소정 유형의 움직임을 수행할 것을 요청할 수 있다(프로세스(500)의 단계(506)). 예를 들어, 명령어들은 사용자에게 그의 또는 그녀의 손을 x-축을 중심으로 회전시킬 것(예를 들어, 인사하듯이 손을 흔드는 것)을 요청할 수 있다. 시스템은 (예를 들어, 도 3에 도시된 IMU(302)와 같은 하나 이상의 IMU들을 사용하여) 사용자의 모션을 측정하기 위해 VR 장갑에 포함된 하나 이상의 컴포넌트들로부터 정보를 수신할 수 있다(프로세스(500)의 단계(508)). 시스템은 측정된 모션 정보를 사용하여 초기 헤딩 정보를 결정할 수 있다(프로세스(500)의 단계(510)).
일부 예에서, VR 장갑은 초기 헤딩 정보를 결정하기 위해 y-회전 최적화기를 사용할 수 있다. Y-회전 최적화기에 의해, 명령어들은 사용자에게 그의 또는 그녀의 손을 소정 위치에 위치시킬 것을 요청할 수 있다(예컨대, 단계(502)). 예를 들어, 명령어들은 사용자에게, 그의 또는 그녀의 손가락들이 서로 터치하는 상태로 중력 방향에 수직인 테이블상판 상에 그의 또는 그녀의 손바닥을 배치할 것을 요청할 수 있다. 사용자는 그의 또는 그녀의 손을 특정 위치에 배치할 수 있다(예컨대, 단계(504)). 명령어들은 사용자에게 소정 유형의 움직임을 수행할 것을 요청할 수 있다(예컨대, 단계(506)). 예를 들어, 명령어들은 사용자에게, 손을 90도 회전시키는 것과 같이 그의 또는 그녀의 손을 y-축을 중심으로 회전시켜 (예를 들어, 엄지손가락이 위를 가리키는 상태로) 국소 프레임의 x-축을 중력 방향에 평행하게 배치할 것을 요청할 수 있다. 하나 이상의 가속도계들이 초기 헤딩을 결정하는 데 사용될 수 있다.
헤딩 보정
신뢰성 있는 헤딩 레퍼런스 없이, 각각의 계산된 손가락 위치의 헤딩들은 서로 독립적으로 드리프트되어, 움직임, 로케이션, 및 위치를 결정할 때에 부정확성들로 이어질 수 있다(예컨대, 도 4에 도시된 단계(414) 내지 단계(422)). 시스템은 그러한 부정확성들을 감소시키거나 방지하기 위해 드리프트를 보정할 수 있다. 각각의 손가락에서의 드리프트는 독립적일 수 있기 때문에, 손가락들은 서로를 향해 또는 서로로부터 멀어지게 드리프트될 수 있다. 두 개의 인접한 손가락들이 반대 방향들로 드리프트되면, 그들은 결국 충돌할 수 있다. 이러한 드리프트를 보정하는 하나의 방식은 렌더링된 손가락들의 충돌을 검출하는 것에 의한 것일 수 있다. 도 6a는 본 발명의 예들에 따른, 2개의 계산된 손가락들 위치들의 예시적인 충돌을 도시한다. 프로세스는 둘 이상의 손가락들이 시뮬레이션된 공간 내에서 서로 충돌했는지 여부를 결정함으로써 시작될 수 있다. 앞서 논의된 바와 같이, 손가락 노드들(608)의 헤딩 배향은 헤딩 초기화 단계(들) 동안 결정될 수 있다(예컨대, 도 4에 도시된 프로세스(400)의 단계(410)). 예를 들어, 사용자의 손가락들은 실제 공간 내에서 벌어져 있을 수 있지만, 시스템은, 도시된 바와 같이, 사용자의 손가락들이 시뮬레이션된 공간 내에서 서로 터치 또는 교차하고 있는 것으로 부정확하게 결정할 수 있다. 예를 들어, 시뮬레이션된 공간 내의 손가락들은 충돌하고 있을 수 있고/있거나(도시되지 않음), (시뮬레이션된 공간 내의) 손 프레임(692) 내의 하나 이상의 손가락 노드들, 예컨대 손가락 노드(688A) 및 손가락 노드(688B)가 충돌하고 있을 수 있다. 드리프트는, 하나 이상의 노드들(688)의 헤딩을 이동시켜 그들이 더 이상 시뮬레이션된 공간 내에서 충돌하고 있지 않을 때까지 멀리 이동시킴으로써 (예컨대, 호스트 디바이스를 사용하여) 보정될 수 있다.
추가적으로 또는 대안적으로, 손가락 노드(688C)와 같은 하나 이상의 노드들의 헤딩은, 도 6b에 도시된 바와 같이, 동일한 손가락 상에 위치된 손가락 노드(688D)와 같은 다른 노드의 헤딩으로부터 멀리 회전될 수 있다. 일부 예에서, 시스템은 근위 뼈(예컨대, 도 1에 도시된 근위 뼈(103C))와 연관된 노드(688)의 헤딩을 비교함으로써 손가락에 대한 헤딩이 시뮬레이션된 공간 내에서 드리프트되었는지 여부를 결정할 수 있다. 손가락의 헤딩을 보정하는 것은 시뮬레이션된 공간 내에서의 근위 뼈와 연관된 노드(688)의 헤딩을 수정하는 것을 포함할 수 있다. 시스템은 중간 뼈(예컨대, 도 1에 도시된 중간 뼈(103B)) 및 원위 뼈(예컨대, 도 1에 도시된 원위 뼈(103A))와 연관된 노드(688)의 헤딩을 근위 뼈와 연관된 노드(688)의 헤딩과 비교함으로써 손가락 노드에 대한 헤딩이 드리프트되었는지 여부를 결정할 수 있다. 중간 뼈 또는 원위 뼈와 연관된 노드들(688)의 헤딩을 보정하는 것은 근위 뼈와 연관된 노드(688)의 헤딩에 대한 보정들을 포함할 수 있다. 즉, 주어진 손가락에 대해, 시뮬레이션된 공간 내의 근위 뼈, 중간 뼈, 및 원위 뼈의 노드들은 사용자의 손가락이 실제 공간 내에서 신전될 때 정렬되어야 한다.
드리프트를 보정하기 위한 다른 방식은 헤딩 리셋 전극들(예컨대, 도 2에 도시된 리셋 전극들(214))을 사용하는 것에 의한 것일 수 있다. 인접한 손가락들이 실제 공간 내에서 터치할 때, 전극들은 전기적으로 서로 결합될 수 있다. 인접한 손가락들이 실제 공간 내에서 터치하고 있지만, 시스템이 시뮬레이션된 공간 내에서 사용자의 손가락이 벌어져 있는 것으로 (또는 그 반대로) 부정확하게 결정하면, 시스템은 하나 이상의 헤딩 보정 단계들을 실행할 수 있다. 실제 공간 내에서의 터치하는 손가락들의 경우, 시스템은 터치하는 손가락들의 헤딩들의 평균을 결정할 수 있고, 시뮬레이션된 공간 내의 손가락들의 헤딩들을 결정된 평균과 동일하게 설정할 수 있다.
일부 예에서, 하나 이상의 다른 컴포넌트들(예컨대, 회전 센서, 카메라, 광 센서들 등)이, 추가적으로 또는 대안적으로, 드리프트 보정 프로세스를 개시하고/하거나 드리프트를 보정하기 위해 사용될 수 있다. 예를 들어, 카메라는 시스템이 실제 공간 내의 손가락들의 위치에 기초하여 어느 손가락들에 대한 드리프트를 보정해야 하는지를 결정할 수 있다. (예컨대, VR 헤드셋에 포함된) 카메라는 사용자의 손가락들의 이미지들을 촬영할 수 있고, 이미지들 내의 손가락들의 배향이 시스템의 시뮬레이션과 상이한지 여부를 검사할 수 있다. 추가적으로 또는 대안적으로, 카메라는 사용자의 손(들)의 위치(들)를 추적하는 데 사용될 수 있다.
가상 현실 시스템에 포함되고 사용자의 손에 착용되도록 구성되는 장갑으로서, 장갑은, 하나 이상의 전자 컴포넌트들 - 하나 이상의 전자 컴포넌트들은, 각각이 손 또는 손가락 뼈에 근접하게 위치되고 손 또는 손가락 뼈의 모션을 나타내는 신호를 생성하도록 구성되는 복수의 관성 모션 유닛(IMU)들을 포함하고, 복수의 IMU들은 사용자의 손 및 손가락들 중 하나 이상의 것들의 가속도 및 회전 속도를 측정하도록 구성됨 -; 및 로직을 포함하고, 로직은, 신호를 사용하여 사용자의 관절의 하나 이상의 움직임들을 결정하도록, 그리고 사용자의 손가락의 하나 이상의 움직임들을 결정하도록 구성된다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 자력계를 포함하지 않는다. 추가적으로 또는 대안적으로, 일부 예에서, 복수의 IMU들 중 적어도 2개의 IMU들은 동일한 손 또는 손가락에 속하는 손가락 뼈들에 근접하게 위치되고, 장갑은 복수의 IMU들 중 적어도 2개의 IMU들로부터 신호들을 수신하도록 구성된 적어도 하나의 버스를 포함하는 하나 이상의 버스들을 추가로 포함하며, 사용자의 손가락의 하나 이상의 움직임들의 결정은 수신된 신호들을 사용하는 것을 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 하나 이상의 버스들 각각은 별개의 손가락과 연관되고, 사용자의 손가락의 하나 이상의 움직임들의 결정은 하나 이상의 버스들 각각으로부터 별개의 신호들을 수신하는 것을 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 복수의 손가락 섹션들 및 엄지손가락 섹션; 및 복수의 전극들 - 각각의 전극은 손가락 섹션 또는 엄지손가락 섹션의 면 상에 위치됨 - 을 추가로 포함하고, 로직은 복수의 전극들 중 2개의 전극들이 전기 접촉을 이루는 경우에 제2 신호를 생성하도록 추가로 구성된다. 추가적으로 또는 대안적으로, 일부 예에서, 하나의 손가락 섹션은 단지 하나의 전극만을 포함하고, 엄지손가락 섹션은 단지 하나의 전극만을 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 복수의 손가락 섹션들 및 엄지손가락 섹션; 및 힘이 인가되는지 여부를 결정하도록 구성되고, 복수의 손가락 섹션들 중 적어도 하나의 손가락 섹션, 엄지손가락 섹션, 또는 이들 양쪽 모두의 섹션들의 손가락끝들에 근접하게 위치되는 하나 이상의 힘 센서들을 추가로 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 복수의 손가락 섹션들 및 엄지손가락 섹션; 및 복수의 손가락 섹션들 중 적어도 하나의 손가락 섹션, 엄지손가락 섹션, 또는 이들 양쪽 모두의 섹션들의 손가락끝들을 진동시키도록 구성된 복수의 액추에이터들을 추가로 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 하나 이상의 전자 컴포넌트들 중 적어도 하나를 포함하는 편조 재료를 추가로 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 편조 재료는 하나 이상의 전자 컴포넌트들 중 적어도 하나를 둘러싸는 복수의 층들을 포함하는 하나 이상의 제1 섹션들, 및 단일 층을 포함하는 하나 이상의 제2 섹션들을 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 편조 재료 내에 편조 실(knitted thread)들로서 구성된 하나 이상의 전도성 실들을 추가로 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 장갑은 복수의 마이크로제어기 유닛(MCU)들을 추가로 포함하고, 각각의 IMU는 고유 MCU에 결합된다. 추가적으로 또는 대안적으로, 일부 예에서, 복수의 IMU들의 수는 16 이상이다. 추가적으로 또는 대안적으로, 일부 예에서, 로직은 온-보드 제어기에 포함된다.
가상 현실 시스템을 작동시키는 방법이 개시되어 있다. 본 방법은 장갑을 포함하는 하나 이상의 디바이스들과의 통신을 확립하는 단계; 손 레퍼런스를 검색하거나 결정하는 단계 - 손 레퍼런스는 복수의 손가락 프레임들을 포함하고, 각각의 손가락 프레임은 노드의 위치를 나타냄 -; 및 하기 중 하나 이상의 단계들을 포함할 수 있다: 복수의 IMU들 각각의 움직임을, 각각의 IMU의 가속도 및 회전을 나타내는 하나 이상의 신호들에 기초하여, 검출하는 단계, 및 하나 이상의 손가락 섹션들, 엄지손가락 섹션, 또는 양쪽 모두의 섹션들이 인가된 힘을 경험하는지 여부를 결정하는 단계. 추가적으로 또는 대안적으로, 일부 예에서, 복수의 IMU들 각각의 움직임을 검출하는 단계는 하나 이상의 신호들을 적어도 하나의 손가락 프레임과 비교하는 단계를 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 손 레퍼런스를 결정하는 단계는 헤딩을 초기화하는 단계를 포함하고, 헤딩을 초기화하는 단계는, 중력에 대해 주어진 축을 따라서 사용자의 손을 위치시키라는 제1 명령어를 사용자에게 제공하는 단계; 및 주어진 축 주위로 손을 움직이라는 제2 명령어를 사용자에게 제공하는 단계를 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 본 방법은 노드들 중 적어도 2개의 노드들의 충돌을 검출함으로써 헤딩에서의 드리프트를 보정하는 단계를 추가로 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 본 방법은 노드들 중 적어도 2개의 노드들의 회전들의 차이를 검출함으로써 헤딩에서의 드리프트를 보정하는 단계를 추가로 포함하고, 노드들 중 적어도 2개의 노드들은 동일한 손가락 또는 엄지손가락 섹션과 연관된다. 추가적으로 또는 대안적으로, 일부 예에서, 본 방법은 2개의 전극들이 전기 접촉을 이루는 것을 나타내는 제2 신호를 수신하는 단계; 및 제2 신호가 수신될 때 헤딩에서의 드리프트를 보정하는 단계를 추가로 포함한다. 추가적으로 또는 대안적으로, 일부 예에서, 본 방법은 결정된 하나 이상의 손가락 섹션들, 엄지손가락 섹션, 또는 양쪽 모두의 섹션들의 적어도 일부분에 진동을 제공하는 단계를 추가로 포함한다.
개시된 예들이 첨부의 도면들을 참조하여 충분히 설명되었지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 다양한 변경들 및 수정들이 명백할 것이라는 것에 주목하여야 한다. 그러한 변경들 및 수정들은 첨부된 청구항들에 의해 정의되는 바와 같은 개시된 예들의 범주 내에 포함되는 것으로서 이해되어야 한다.

Claims (20)

  1. 가상 현실 시스템에 포함되고 사용자의 손에 착용되도록 구성되는 장갑으로서,
    하나 이상의 전자 컴포넌트들 - 상기 하나 이상의 전자 컴포넌트들은,
    각각이 손 또는 손가락 뼈에 근접하게 위치되고 상기 손 또는 손가락 뼈의 모션을 나타내는 신호를 생성하도록 구성되는 복수의 관성 모션 유닛(inertial motion unit, IMU)들을 포함하고,
    상기 복수의 IMU들은 상기 사용자의 손 및 손가락들 중 하나 이상의 것들의 가속도 및 회전 속도를 측정하도록 구성됨 -; 및
    로직(logic)을 포함하고, 상기 로직은,
    상기 신호를 사용하여 상기 사용자의 관절의 하나 이상의 움직임들을 결정하도록, 그리고
    상기 사용자의 손가락의 하나 이상의 움직임들을, 상기 손가락과 연관된 상기 복수의 IMU들 중 적어도 2개의 IMU들로부터의 신호들을 사용하여, 결정하도록 구성되는, 장갑.
  2. 제1항에 있어서, 상기 장갑은 자력계를 포함하지 않는, 장갑.
  3. 제1항에 있어서,
    하나 이상의 버스들을 추가로 포함하고, 상기 하나 이상의 버스들은,
    상기 복수의 IMU들 중 상기 적어도 2개의 IMU들로부터의 상기 신호들을 포함하는 제1 버스, 및
    별개의 손가락과 연관된 다른 IMU들로부터의 신호들을 포함하는 제2 버스를 포함하고,
    상기 사용자의 손가락의 하나 이상의 움직임들의 결정은 상기 제1 버스의 신호들과 상기 제2 버스의 신호들 사이의 정보의 차이를 사용하는 것을 포함하는, 장갑.
  4. 제1항에 있어서,
    복수의 손가락 섹션들 및 엄지손가락 섹션; 및
    복수의 전극들 - 각각의 전극은 손가락 섹션 또는 엄지손가락 섹션의 면 상에 위치됨 - 을 추가로 포함하고,
    상기 로직은,
    상기 복수의 전극들 중 2개의 전극들이 전기 접촉을 이루는 경우에 제2 신호를 생성하도록 추가로 구성되는, 장갑.
  5. 제4항에 있어서, 하나의 손가락 섹션은 단지 하나의 전극만을 포함하고, 상기 엄지손가락 섹션은 단지 하나의 전극만을 포함하는, 장갑.
  6. 제1항에 있어서,
    복수의 손가락 섹션들 및 엄지손가락 섹션; 및
    힘이 인가되는지 여부를 결정하도록 구성되고, 상기 복수의 손가락 섹션들 중 적어도 하나의 손가락 섹션, 상기 엄지손가락 섹션, 또는 이들 양쪽 모두의 섹션들의 손가락끝들에 근접하게 위치되는 하나 이상의 힘 센서들을 추가로 포함하는, 장갑.
  7. 제1항에 있어서,
    복수의 손가락 섹션들 및 엄지손가락 섹션; 및
    상기 복수의 손가락 섹션들 중 적어도 하나의 손가락 섹션, 상기 엄지손가락 섹션, 또는 이들 양쪽 모두의 섹션들의 손가락끝들을 진동시키도록 구성된 복수의 액추에이터들을 추가로 포함하는, 장갑.
  8. 제1항에 있어서,
    상기 하나 이상의 전자 컴포넌트들 중 적어도 하나를 포함하는 편조 재료(knitted material)를 추가로 포함하는, 장갑.
  9. 제10항에 있어서, 상기 편조 재료는,
    상기 하나 이상의 전자 컴포넌트들 중 상기 적어도 하나를 둘러싸는 복수의 층들을 포함하는 하나 이상의 제1 섹션들, 및
    단일 층을 포함하는 하나 이상의 제2 섹션들을 포함하는, 장갑.
  10. 제8항에 있어서,
    상기 편조 재료 내에 편조 실(knitted thread)들로서 구성된 하나 이상의 전도성 실들을 추가로 포함하는, 장갑.
  11. 제1항에 있어서,
    복수의 마이크로제어기 유닛(microcontroller unit, MCU)들을 추가로 포함하고, 각각의 IMU는 고유 MCU에 결합되는, 장갑.
  12. 제1항에 있어서, 상기 복수의 IMU들의 수는 16 이상인, 장갑.
  13. 제1항에 있어서, 상기 로직은 온-보드(on-board) 제어기에 포함되는, 장갑.
  14. 가상 현실 시스템을 동작시키기 위한 방법으로서,
    장갑을 포함하는 하나 이상의 디바이스들과의 통신을 확립하는 단계;
    손 레퍼런스(hand reference)를 검색하거나 결정하는 단계 - 상기 손 레퍼런스는 복수의 손가락 프레임들을 포함하고, 각각의 손가락 프레임은 노드의 위치를 나타냄 -; 및
    하기 중 하나 이상의 단계들을 포함하는, 방법:
    복수의 IMU들 각각의 움직임을, 상기 각각의 IMU의 가속도 및 회전을 나타내는 하나 이상의 신호들에 기초하여, 검출하는 단계, 및
    하나 이상의 손가락 섹션들, 엄지손가락 섹션, 또는 양쪽 모두의 섹션들이 인가된 힘을 경험하는지 여부를 결정하는 단계.
  15. 제14항에 있어서, 상기 복수의 IMU들 각각의 움직임을 검출하는 단계는,
    상기 하나 이상의 신호들을 적어도 하나의 손가락 프레임과 비교하는 단계를 포함하는, 방법.
  16. 제14항에 있어서, 상기 손 레퍼런스를 결정하는 단계는 헤딩(heading)을 초기화하는 단계를 포함하고, 상기 헤딩을 초기화하는 단계는,
    중력에 대해 주어진 축을 따라서 사용자의 손을 위치시키라는 제1 명령어를 상기 사용자에게 제공하는 단계; 및
    상기 주어진 축 주위로 상기 손을 움직이라는 제2 명령어를 상기 사용자에게 제공하는 단계를 포함하는, 방법.
  17. 제14항에 있어서,
    상기 노드들 중 적어도 2개의 노드들의 충돌을 검출함으로써 헤딩에서의 드리프트(drift)를 보정하는 단계를 추가로 포함하는, 방법.
  18. 제14항에 있어서,
    상기 노드들 중 적어도 2개의 노드들의 회전들의 차이를 검출함으로써 헤딩에서의 드리프트를 보정하는 단계를 추가로 포함하고, 상기 노드들 중 상기 적어도 2개의 노드들은 동일한 손가락 또는 엄지손가락 섹션과 연관되는, 방법.
  19. 제14항에 있어서,
    2개의 전극들이 전기 접촉을 이루는 것을 나타내는 제2 신호를 수신하는 단계; 및
    상기 제2 신호가 수신될 때 헤딩에서의 드리프트를 보정하는 단계를 추가로 포함하는, 방법.
  20. 제14항에 있어서,
    상기 결정된 하나 이상의 손가락 섹션들, 상기 엄지손가락 섹션, 또는 양쪽 모두의 섹션들의 적어도 일부분에 진동을 제공하는 단계를 추가로 포함하는, 방법.
KR1020207006034A 2017-09-29 2018-08-28 Imu 기반 장갑 KR102414497B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762566303P 2017-09-29 2017-09-29
US62/566,303 2017-09-29
PCT/US2018/048398 WO2019067144A1 (en) 2017-09-29 2018-08-28 GLO BASE

Publications (2)

Publication Number Publication Date
KR20200035296A true KR20200035296A (ko) 2020-04-02
KR102414497B1 KR102414497B1 (ko) 2022-06-29

Family

ID=63528973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207006034A KR102414497B1 (ko) 2017-09-29 2018-08-28 Imu 기반 장갑

Country Status (5)

Country Link
US (1) US10877557B2 (ko)
KR (1) KR102414497B1 (ko)
CN (3) CN109582125B (ko)
DE (1) DE112018005530T5 (ko)
WO (1) WO2019067144A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220065225A (ko) 2020-11-13 2022-05-20 이승용 반지형 vr 트래커
KR20220102939A (ko) * 2021-01-14 2022-07-21 동의과학대학교산학협력단 고령자의 인지재활을 위한 맞춤형 vr 컨트롤러의 제어 방법

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11036295B2 (en) 2016-11-23 2021-06-15 Microsoft Technology Licensing, Llc Electrostatic slide clutch
US10180721B2 (en) * 2017-06-14 2019-01-15 Apple Inc. Fabric-based devices with force sensing
WO2019067144A1 (en) * 2017-09-29 2019-04-04 Apple Inc. GLO BASE
CN108072464B (zh) * 2017-11-30 2019-10-29 东南大学 一种仿人手指端滑动触觉传感器
US10837599B2 (en) * 2018-02-08 2020-11-17 Alken Inc. Safety system for machinery
US10914567B2 (en) 2018-02-23 2021-02-09 Apple Inc. Magnetic sensor based proximity sensing
US11023047B2 (en) 2018-05-01 2021-06-01 Microsoft Technology Licensing, Llc Electrostatic slide clutch with bidirectional drive circuit
US10895446B2 (en) * 2018-09-06 2021-01-19 Microsoft Technology Licensing, Llc Sensor-integrated disposable cover
US10802657B1 (en) 2019-02-12 2020-10-13 Facebook Technologies, Llc System and method for detecting mutual capacitance
US20220136650A1 (en) * 2019-03-05 2022-05-05 Grasselli S.P.A. Improved garment
DE102019109986A1 (de) * 2019-04-16 2020-10-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Kontrollieren einer Greifvorrichtung und Ein-/Ausgabegerät
US11579161B2 (en) * 2019-04-16 2023-02-14 Robotiques Haply Inc. Orientation preserved damping for object tracking subjected to haptic stimulus
US20200341550A1 (en) * 2019-04-29 2020-10-29 Matt Giordano System, Method, and Apparatus for Virtual Reality Feedback
US10860102B2 (en) 2019-05-08 2020-12-08 Microsoft Technology Licensing, Llc Guide for supporting flexible articulating structure
CN110209270B (zh) * 2019-05-14 2022-10-25 李子琪 一种数据手套、数据手套系统、校正方法及存储介质
US11054905B2 (en) * 2019-05-24 2021-07-06 Microsoft Technology Licensing, Llc Motion-restricting apparatus with common base electrode
US11061476B2 (en) 2019-05-24 2021-07-13 Microsoft Technology Licensing, Llc Haptic feedback apparatus
CN110176162B (zh) * 2019-06-25 2021-09-21 范平 一种可穿戴系统及应用于可穿戴系统的教学方法
CN110264798B (zh) * 2019-06-25 2021-09-07 范平 一种可穿戴系统及应用于可穿戴系统的教学方法
US11555687B2 (en) 2019-08-08 2023-01-17 Sigmasense, Llc. Capacitive imaging glove
US11681369B2 (en) * 2019-09-16 2023-06-20 Iron Will Innovations Canada Inc. Control-point activation condition detection for generating corresponding control signals
CN111240469B (zh) * 2019-12-31 2023-04-25 北京诺亦腾科技有限公司 手部动作捕捉的校准方法、装置、电子设备及存储介质
JP2021116491A (ja) * 2020-01-27 2021-08-10 富士フイルムビジネスイノベーション株式会社 触覚提示装置
US11977681B2 (en) * 2020-03-13 2024-05-07 Sony Group Corporation Information processing device and information processing method
US11397468B2 (en) 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
US11397466B2 (en) 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
US11740699B2 (en) * 2020-06-11 2023-08-29 Angelina Dong Tactile feedback glove
US11771972B2 (en) * 2020-06-18 2023-10-03 Maceo Baston Sports training system
WO2022006057A1 (en) * 2020-07-01 2022-01-06 Censyn, Inc. Rapid positioning systems
WO2022014445A1 (ja) * 2020-07-14 2022-01-20 ソニーグループ株式会社 検出装置及び検出方法
US11531391B2 (en) * 2020-10-09 2022-12-20 Contact Control Interfaces, LLC Tendon driven exoskeleton tightening mechanism
IT202000029786A1 (it) * 2020-12-03 2022-06-03 Eng Your Endeavour Ltd Apparato per la valutazione dell’esecuzione di tecniche chirurgiche e relativo metodo
DE102021107637B4 (de) 2021-03-26 2024-02-29 Audi Aktiengesellschaft Erfassungsvorrichtung zum Erfassen von Eingabedaten, welche auf zumindest einer Körperbewegung eines Benutzers basieren, Verfahren zum Erfassen der Eingabedaten und ein Kraftfahrzeug
US20220366803A1 (en) * 2021-05-17 2022-11-17 Northeastern University Center for Research Innovation, Northeastern Univ. Computer-implemented methods and systems for designing and conducting virtual reality experiments
US20220369742A1 (en) * 2021-05-17 2022-11-24 Supreme Corporation Heatable glove liner, glove containing the same, and method of making the same
CN113370272B (zh) * 2021-05-27 2022-12-13 西安交通大学 一种多段连续体机器人的位姿监测系统及方法
WO2024030656A2 (en) * 2022-08-05 2024-02-08 Haptx, Inc. Haptic platform and ecosystem for immersive computer mediated environments
US11921935B1 (en) * 2023-02-13 2024-03-05 Toshiba Global Commerce Solutions Gesture-based wearable device having coded commands

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100063795A (ko) * 2007-09-14 2010-06-11 독립행정법인 산업기술종합연구소 버추얼 리얼리티 환경 생성 장치 및 콘트롤러 장치
WO2016097841A2 (en) * 2014-12-16 2016-06-23 Quan Xiao Methods and apparatus for high intuitive human-computer interface and human centric wearable "hyper" user interface that could be cross-platform / cross-device and possibly with local feel-able/tangible feedback

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5631861A (en) * 1990-02-02 1997-05-20 Virtual Technologies, Inc. Force feedback and texture simulating interface device
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US20020075232A1 (en) * 1997-08-15 2002-06-20 Wolfgang Daum Data glove
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100595917B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US20070063992A1 (en) * 2005-09-17 2007-03-22 Lundquist Paul B Finger-keyed human-machine interface device
US7498956B2 (en) 2006-01-04 2009-03-03 Iron Will Creations, Inc. Apparatus and method for inputting information
CN101611316A (zh) 2007-02-01 2009-12-23 皇家飞利浦电子股份有限公司 感测磁性粒子的磁传感器设备和方法
DE102011013398A1 (de) 2010-03-10 2011-09-15 Northern Digital Inc. Magnetisches Ortungssystem
CN201780554U (zh) * 2010-09-27 2011-03-30 张鹏 手套式键盘系统
EP2671091B1 (en) 2011-02-03 2014-12-24 Sensitec GmbH Magnetic field sensing device
US9891718B2 (en) * 2015-04-22 2018-02-13 Medibotics Llc Devices for measuring finger motion and recognizing hand gestures
US10321873B2 (en) 2013-09-17 2019-06-18 Medibotics Llc Smart clothing for ambulatory human motion capture
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US9301563B2 (en) * 2013-02-07 2016-04-05 Nova Diagnostics, Llc Pressure sensing glove
US20150358543A1 (en) 2014-06-05 2015-12-10 Ali Kord Modular motion capture system
CN105353866A (zh) 2014-08-20 2016-02-24 博世(上海)智能科技有限公司 用于采集手语识别用数据的手套
CN104281261B (zh) 2014-09-16 2018-04-13 苏州能斯达电子科技有限公司 一种用于手势交互系统的可穿戴张力传感器及其制备方法
EP3208687B1 (en) 2014-10-17 2019-11-27 Yamaha Corporation Data glove
JP6341294B2 (ja) * 2014-12-05 2018-06-13 富士通株式会社 触感提供システム、及び、触感提供装置
US9529433B2 (en) * 2014-12-30 2016-12-27 Stmicroelectronics Pte Ltd Flexible smart glove
US9746921B2 (en) * 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
EP3245648B1 (en) * 2015-01-14 2019-05-22 Taction Enterprises Inc. Arrangement for producing musical data
US9665174B2 (en) 2015-02-20 2017-05-30 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips with peripheral devices
US10551916B2 (en) 2015-09-24 2020-02-04 Facebook Technologies, Llc Detecting positions of a device based on magnetic fields generated by magnetic field generators at different positions of the device
US10416697B2 (en) 2015-10-14 2019-09-17 Semiconductor Components Industries, Llc Wheatstone bridge sensing system with multiple current sources
US10509468B2 (en) * 2016-01-27 2019-12-17 Tactai, Inc. Providing fingertip tactile feedback from virtual objects
US10503317B2 (en) * 2016-02-09 2019-12-10 The Boeing Company Turbulence resistant touch system
CN205540575U (zh) 2016-03-14 2016-08-31 北京诺亦腾科技有限公司 一种用于虚拟现实系统的动作捕捉手套及虚拟现实系统
US10013069B2 (en) * 2016-09-13 2018-07-03 Intel Corporation Methods and apparatus to detect vibration inducing hand gestures
CN106174813A (zh) 2016-09-30 2016-12-07 无锡吾成互联科技有限公司 一种智能手套
US10980687B2 (en) * 2017-07-19 2021-04-20 Stryker Corporation Techniques for generating auditory and haptic output with a vibrational panel of a patient support apparatus
WO2019024051A1 (en) 2017-08-03 2019-02-07 Intel Corporation HAPTIC GLOVES FOR VIRTUAL REALITY SYSTEMS AND METHODS OF CONTROLLING THEM
WO2019067144A1 (en) 2017-09-29 2019-04-04 Apple Inc. GLO BASE
RU179301U1 (ru) 2017-10-27 2018-05-07 Федоров Александр Владимирович Перчатка виртуальной реальности
US10914567B2 (en) 2018-02-23 2021-02-09 Apple Inc. Magnetic sensor based proximity sensing
JP7124616B2 (ja) 2018-10-03 2022-08-24 コニカミノルタ株式会社 誘導装置、制御システム、および制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100063795A (ko) * 2007-09-14 2010-06-11 독립행정법인 산업기술종합연구소 버추얼 리얼리티 환경 생성 장치 및 콘트롤러 장치
WO2016097841A2 (en) * 2014-12-16 2016-06-23 Quan Xiao Methods and apparatus for high intuitive human-computer interface and human centric wearable "hyper" user interface that could be cross-platform / cross-device and possibly with local feel-able/tangible feedback

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220065225A (ko) 2020-11-13 2022-05-20 이승용 반지형 vr 트래커
KR20220102939A (ko) * 2021-01-14 2022-07-21 동의과학대학교산학협력단 고령자의 인지재활을 위한 맞춤형 vr 컨트롤러의 제어 방법

Also Published As

Publication number Publication date
KR102414497B1 (ko) 2022-06-29
CN209055908U (zh) 2019-07-02
CN109582125B (zh) 2022-10-18
CN213149708U (zh) 2021-05-07
CN109582125A (zh) 2019-04-05
DE112018005530T5 (de) 2020-07-02
WO2019067144A1 (en) 2019-04-04
US20190101981A1 (en) 2019-04-04
US10877557B2 (en) 2020-12-29

Similar Documents

Publication Publication Date Title
KR102414497B1 (ko) Imu 기반 장갑
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
KR101541082B1 (ko) 손 재활 운동 시스템 및 방법
US10317997B2 (en) Selection of optimally positioned sensors in a glove interface object
CN106445130B (zh) 一种用于手势识别的动作捕捉手套及其校准方法
KR101389894B1 (ko) 모션 캡쳐 기술을 이용한 가상 현실 시뮬레이션 장치 및 방법
Gunawardane et al. Comparison of hand gesture inputs of leap motion controller & data glove in to a soft finger
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
CN108279773B (zh) 一种基于marg传感器和磁场定位技术的数据手套
CN110221683B (zh) 动作检测系统、动作检测方法及其计算机可读记录介质
US11009964B2 (en) Length calibration for computer models of users to generate inputs for computer systems
US11054923B2 (en) Automatic switching between different modes of tracking user motions to control computer applications
Cameron et al. Hand tracking and visualization in a virtual reality simulation
KR102162922B1 (ko) 촉각 피드백이 가능한 가상현실 기반의 손 재활 시스템
CN110209270B (zh) 一种数据手套、数据手套系统、校正方法及存储介质
TWI413030B (zh) 動作重建及比對裝置
US20210072820A1 (en) Sticky device to track arm movements in generating inputs for computer systems
US11775064B1 (en) Multiple-magnet hand-mounted position-tracking device
Lu et al. Hand motion capture system based on multiple inertial sensors: Demo abstract
WO2018199983A1 (en) Tablet computing device with display dock
EP3152638B1 (en) A haptic interface system for providing a haptic stimulus indicative of a virtual relief
Catarino Development of Hand-Tracker: Wireless Solutation Based on Inertial Sensors
KR102256607B1 (ko) 다중 콘텐츠 표현이 가능한 다중 가상현실 콘텐츠 제공 시스템
JP2018181185A (ja) 力覚提示器及び仮想力覚提示装置
Kilby et al. A study of viewpoint and feedback in wearable systems for controlling a robot arm

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant