KR102536546B1 - 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스 - Google Patents

센서들 및 햅틱들을 갖는 핑거 장착형 디바이스 Download PDF

Info

Publication number
KR102536546B1
KR102536546B1 KR1020227003079A KR20227003079A KR102536546B1 KR 102536546 B1 KR102536546 B1 KR 102536546B1 KR 1020227003079 A KR1020227003079 A KR 1020227003079A KR 20227003079 A KR20227003079 A KR 20227003079A KR 102536546 B1 KR102536546 B1 KR 102536546B1
Authority
KR
South Korea
Prior art keywords
finger
user
haptic output
sensor
force
Prior art date
Application number
KR1020227003079A
Other languages
English (en)
Other versions
KR20220018094A (ko
Inventor
폴 엑스. 왕
알렉스 제이. 레만
마이클 제이. 락웰
마이클 와이. 청
레이 엘. 창
홍청 선
이안 엠. 불록
카일 제이. 네킴켄
마들렌 에스. 코르디에
승 욱 김
데이비드 에이치. 블룸
스콧 지. 존스턴
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Priority to KR1020237017208A priority Critical patent/KR20230074849A/ko
Publication of KR20220018094A publication Critical patent/KR20220018094A/ko
Application granted granted Critical
Publication of KR102536546B1 publication Critical patent/KR102536546B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/14Measuring force or stress, in general by measuring variations in capacitance or inductance of electrical elements, e.g. by measuring variations of frequency of electrical oscillators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/16Measuring force or stress, in general using properties of piezoelectric devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/003Kinematic accelerometers, i.e. measuring acceleration in relation to an external reference frame, e.g. Ferratis accelerometers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Abstract

핑거 장착형 디바이스는 핑거 장착형 유닛들을 포함할 수 있다. 핑거 장착형 유닛들은 각각 힘 센서들, 가속도계들, 및 다른 센서들과 같은 컴포넌트들에 대한 지지 구조체, 그리고 햅틱 출력 디바이스들에 대한 지지 구조체로 기능하는 본체를 가질 수 있다. 본체는 사용자의 손톱에 인접하게 놓이는 부분에 의해 결합되는 측벽 부분들을 가질 수 있다. 본체는 금속과 같은 변형가능한 재료로 형성될 수 있거나, 또는 자기 인력, 스프링, 또는 다른 구조체들을 사용하여 서로 결합되는 슬라이딩 본체 부분들과 같은 조정가능한 구조체들로 형성될 수 있다. 각각의 핑거 장착형 유닛의 본체는, 본체가 사용자의 손가락의 손끝에 결합될 때 각각의 손가락의 핑거 패드를 노출된 상태로 유지하는 U자형의 단면 프로파일을 가질 수 있다. 제어 회로는 센서들을 사용하여 손가락 누르기 입력, 측방향 손가락 이동 입력, 및 손가락 탭 입력을 수집할 수 있고, 햅틱 출력 디바이스를 사용하여 햅틱 출력을 제공할 수 있다.

Description

센서들 및 햅틱들을 갖는 핑거 장착형 디바이스 {FINGER-MOUNTED DEVICE WITH SENSORS AND HAPTICS}
본 출원은, 2018년 6월 21일 출원된 미국 특허 출원 제16/015,043호, 및 2017년 6월 29일 출원된 미국 가특허 출원 제62/526,792호에 대한 우선권을 주장하며, 이들은 그 전체가 본 명세서에 참조로서 포함되어 있다.
본 출원은 일반적으로 전자 디바이스들에 관한 것으로, 더욱 상세하게는, 웨어러블 전자 디바이스들에 관한 것이다.
컴퓨터들 및 헤드 장착형 디스플레이 시스템들과 같은 전자 장비는 때때로 장갑들과 같은 입출력 디바이스들을 사용하여 제어된다. 장갑은 사용자 핸드 모션들을 검출하는 센서들을 가질 수 있다. 사용자 핸드 모션들은 전자 장비를 제어하는 데 사용될 수 있다.
전자 장비를 제어하기 위한 입력을 수집하기 위한 웨어러블 디바이스들의 사용은 난제들을 제기할 수 있다. 주의를 기울이지 않으면, 장갑과 같은 디바이스가 사용자의 환경에서 객체들을 느끼는 사용자의 능력에 영향을 미칠 수 있거나, 사용하기에 불편할 수 있거나, 사용자로부터 적합한 입력을 수집하지 못할 수 있다.
핑거 장착형 디바이스는 제어 회로에 결합되는 핑거 장착형 유닛들을 포함할 수 있다. 제어 회로는 외부 디바이스를 제어하기 위해 핑거 장착형 유닛들을 이용해 수집된 정보를 외부 디바이스로 무선 송신할 수 있다. 제어 회로는 또한 핑거 장착형 유닛들을 사용하여 햅틱 피드백과 같은 피드백을 사용자의 손가락들에 제공할 수 있다. 예를 들어, 제어 회로는 외부 디바이스로부터 무선 수신된 정보에 기초하여 햅틱 출력을 사용자의 손가락들에 제공할 수 있다. 햅틱 출력은 가상 현실 또는 증강 현실 햅틱 출력에 대응할 수 있다.
핑거 장착형 유닛들은 각각 본체를 가질 수 있다. 본체는 힘 센서들, 가속도계들, 및 다른 센서들과 같은 컴포넌트들에 대한 지지 구조체, 그리고 햅틱 출력 디바이스들에 대한 지지 구조체로 기능한다. 동작 동안, 사용자는 외부 객체와 상호작용하면서 사용자의 손가락들의 끝부분들 상에 핑거 장착형 유닛들을 착용할 수 있다.
각각의 핑거 장착형 유닛의 본체는 사용자의 손톱에 인접하게 놓이는 부분에 의해 결합되는 측벽 부분들을 가질 수 있다. 사용자의 손끝이 측벽 부분들 사이에 수용될 수 있다. 본체는 금속과 같은 변형가능한 재료로 형성될 수 있거나, 또는 자기 인력, 스프링, 또는 다른 구조체들을 사용하여 서로 결합되는 슬라이딩 본체 부분들과 같은 조정가능한 구조체들로 형성될 수 있다. 이는 핑거 장착형 유닛의 본체가 상이한 손가락 크기들을 수용하도록 조정되게 한다.
각각의 핑거 장착형 유닛의 본체는 본체가 사용자의 손가락의 손끝에 결합될 때 각각의 손가락의 핑거 패드를 노출된 상태로 유지하는 U자형의 단면 프로파일을 가질 수 있다. 제어 회로는 센서들을 사용하여 손가락 누르기 입력, 측방향 손가락 이동 입력, 및 손가락 탭 입력을 수집할 수 있고, 햅틱 출력 디바이스를 사용하여 햅틱 출력을 제공할 수 있다.
도 1은 일 실시예에 따른 핑거 장착형 디바이스와 같은 예시적인 디바이스의 개략도이다.
도 2는 일 실시예에 따른, 사용자의 손과, 사용자의 손의 손가락 끝부분들 상의 예시적인 핑거 장착형 디바이스 컴포넌트들의 평면도이다.
도 3은 일 실시예에 따른, 사용자의 손가락 상의 예시적인 핑거 장착형 디바이스의 단면도이다.
도 4는 일 실시예에 따른 예시적인 핑거 장착형 디바이스의 사시도이다.
도 5, 도 6 및 도 7은 일 실시예에 따른 핑거 장착형 디바이스의 사용 동안의 사용자의 손가락의 끝부분의 예시적인 도면들이다.
도 8은 일 실시예에 따른 예시적인 핑거 장착형 디바이스의 단면도이다.
도 9는 일 실시예에 따른 예시적인 핑거 장착형 디바이스의 측면도이다.
도 10은 일 실시예에 따른 예시적인 핑거 장착형 디바이스의 평면도이다.
도 11은 일 실시예에 따른 예시적인 압전 빔(piezoelectric beam) 디바이스의 측단면도이다.
도 12는 일 실시예에 따른 예시적인 압전 디스크 디바이스의 측단면도이다.
도 13은 일 실시예에 따른 예시적인 용량성 힘 센서의 측단면도이다.
도 14, 도 15 및 도 16은 실시예들에 따른, 핑거 장착형 디바이스들에 대한 예시적인 장착 구성들을 도시하는 도면들이다.
도 17은 일 실시예에 따른, 핑거 장착형 디바이스에서 햅틱 출력 디바이스에 제공될 수 있는 예시적인 햅틱 출력 구동 신호들의 그래프이다.
도 18은 일 실시예에 따른, 유닛의 폭에 걸쳐 있는 세장형 프레임 구조체를 형성하는 와이어들을 갖는 예시적인 핑거 장착형 유닛의 사시도이다.
도 19는 일 실시예에 따른, 공압 작동식 핑거 그리퍼들을 갖는 예시적인 핑거 장착형 유닛의 도면이다.
도 20은 일 실시예에 따른, 폼 또는 탄성중합성 중합체와 같은 압축성 재료로 라이닝된 본체 부재를 갖는 예시적인 핑거 장착형 디바이스의 도면이다.
도 21은 일 실시예에 따른, 핑거 장착형 디바이스의 본체의 폭을 제어하는 조정가능한 스크류를 갖는 예시적인 핑거 장착형 디바이스의 도면이다.
도 22는 일 실시예에 따른, 자기 인력에 의해 서로 결합되는 슬라이딩 본체 부재들을 갖는 예시적인 핑거 장착형 디바이스의 도면이다.
도 23은 일 실시예에 따른, 디바이스의 본체의 폭을 조정하는 스프링을 갖는 예시적인 핑거 장착형 디바이스의 도면이다.
도 24는 일 실시예에 따른, 변형가능한 본체를 갖는 예시적인 핑거 장착형 디바이스의 도면이다.
도 25는 일 실시예에 따른, 핑거 장착형 디바이스에 대한 예시적인 중합체 코팅된 변형가능한 금속 본체 부재의 측단면도이다.
도 26은 일 실시예에 따른, 손가락의 끝부분 이외의 위치에서 손가락 상에 착용된 예시적인 핑거 장착형 디바이스의 측면도이다.
도 27은 일 실시예에 따른, 사용자의 손가락의 상부 표면으로부터 터치 입력을 수집하기 위한 광학 센서들을 갖는 예시적인 핑거 장착형 디바이스의 측면도이다.
도 28은 일 실시예에 따른, 핑거 장착형 디바이스가 사용되는 시스템을 교정하는 데 마커들이 사용될 수 있는 방식을 도시하는 도면이다.
도 29는 일 실시예에 따른, 핑거 장착형 디바이스를 착용하고 있는 사용자에 의해 시각적 요소들이 조작될 수 있는 방식을 도시하는 도면이다.
도 30은 일 실시예에 따른, 핑거 장착형 디바이스를 사용하여 사용자가 목록 내의 아이템을 선택하는 도면이다.
도 31은 일 실시예에 따른, 시각적 마커들을 갖는 예시적인 핑거 장착형 디바이스의 사시도이다.
도 32는 일 실시예에 따른, 박형화된 중심 영역을 갖는 예시적인 핑거 장착형 디바이스의 단면도이다.
도 33은 일 실시예에 따른, 핑거 장착형 디바이스를 사용자의 손가락에 고정하는 데 사용하기 위한 전기적으로 조정가능한 가요성을 갖는 예시적인 층이다.
웨어러블 전자 디바이스들은 사용자로부터 입력을 수집하는 데 사용될 수 있고, 햅틱 출력 또는 다른 출력을 사용자에게 제공하는 데 사용될 수 있다. 예를 들어, 핑거 장착형 디바이스와 같은 웨어러블 디바이스는 사용자가 사용자의 환경 내의 표면들과 상호작용함에 따라 사용자의 손가락들로부터 입력을 수집하는 데 사용될 수 있고, 이러한 상호작용들 동안 클릭들 및 다른 햅틱 출력을 제공하는 데 사용될 수 있다. 이러한 방식으로 수집되는 입력은 사용자가 객체에 대해 얼마나 단단히 누르는지(손가락 누르기 입력)에 대한 정보, 표면에 대한 사용자의 손가락의 가벼운 탭들과 연관된 손가락 탭 입력, 사용자가 얼마나 단단히 그들의 손가락을 표면 상에서 측방향으로 누르는 지를 나타내는 전단력과 같은 측방향 손가락 이동 정보, 및 다른 사용자 입력을 포함할 수 있다. 사용자에게 가벼운 탭 입력이 인식되었음을 확인하기 위해 또는 달리 사용자에게 피드백을 제공하기 위해 햅틱 출력이 사용자에게 제공될 수 있다. 햅틱 피드백은 사용자가 탁상과 같은 단단한 평평한 표면 상에 탭핑하고 있을 때에도, 물리적 키보드 또는 이동가능한 버튼 부재를 갖는 다른 입력 디바이스 상에 탭핑하는 감각을 사용자에게 제공할 수 있다. 웨어러블 전자 디바이스로 사용자에게 제공되는 햅틱 출력은 사용자가 헤드 장착형 디스플레이 또는 사용자에게 가상 현실 또는 증강 현실 환경을 생성하는 다른 디바이스를 착용하고 있는 동안 제공되는 가상 현실 햅틱 출력 또는 증강 현실 햅틱 출력일 수 있다.
사용자가 실제 세계 객체들을 정확하게 느낄 수 있게 하기 위해, 핑거 장착형 디바이스는 사용자의 손끝들의 밑면 부분들이 환경에 노출되게 하는 U자형의 단면 프로파일 또는 다른 형상을 가질 수 있다. 핑거 장착형 디바이스를 위한 센서 컴포넌트들은 힘 센서들, 광학 센서들, 및 다른 센서들로 형성될 수 있다. 햅틱 출력 디바이스들은 압전 액추에이터들 및 햅틱 출력을 제공하는 다른 컴포넌트들을 포함할 수 있다. 일부 구성들에서, 압전 디바이스 또는 다른 컴포넌트는 (출력 신호로 구동될 때) 햅틱 출력을 제공하고 힘 센서 입력을 수집하는 것 둘 모두에 사용될 수 있다.
핑거 장착형 디바이스는 가상 현실 또는 증강 현실 시스템을 제어하는 데 사용될 수 있고, 사용자가 탁자 표면(예를 들어, 헤드 장착형 디스플레이를 사용하여 탁자 표면과 정렬되어 표시되는 가상 키보드 표면) 상에 손가락 탭을 하고 있을 때 물리적 키보드 상에서 상호작용하는 감각을 사용자에게 제공할 수 있으며, 사용자가 사용자의 손끝들의 측방향 이동만을 사용하여 조이스틱 유형의 입력을 제공할 수 있게 하고, 다른 장비를 제어하는 데 사용되는 힘 센서 측정치들(사용자 손가락 누르기 힘 측정치들)을 수집할 수 있고/있거나, 입력을 수집하고 다른 시스템 환경들에서 햅틱 출력을 사용자에게 제공하는 데 사용될 수 있다.
도 1은 핑거 장착형 디바이스와 같은 웨어러블 디바이스를 포함하는 예시적인 시스템의 도면이다. 도 1에 도시된 바와 같이, 시스템(12)은 전자 디바이스(20)와 같은 전자 장비와 상호작용하는 디바이스(10)와 같은 핑거 장착형 디바이스를 포함할 수 있다. 핑거 장착형 디바이스(10)는 힘 센서들(16), 햅틱 출력 디바이스들(18), 및 제어 회로(14)와 같은 센서들을 포함할 수 있다. 이들과 같은 컴포넌트들은 하우징 구조체들(때때로, 본체 구조체들 또는 본체 부재들로 지칭됨)을 사용하여 사용자의 신체 부위들 상에(예를 들어, 사용자의 손끝들 상에) 장착될 수 있다. 하우징 구조체들은 하나 이상의 손가락들 상에 존재하는 디바이스(10)의 부분들에 대해 형성될 수 있다. 예를 들어, 디바이스(10)는 사용자의 다수의 상이한 손가락들 각각에 대한 별개의 본체 부재 및 연관된 컴포넌트들을 포함할 수 있다. 하우징 구조체는 금속, 중합체, 직물, 유리, 세라믹, 다른 재료들, 또는 이러한 재료들의 조합들로 형성될 수 있다. 일부 구성들에서, 무선 또는 유선 링크들이 손끝 컴포넌트들로의 신호들 및 그들로부터의 신호들을 디바이스(10)의 다른 부분들(예를 들어, 사용자의 손의 후방에 위치되는 디바이스(10)의 일부분 등)로 라우팅하는 데 사용될 수 있다.
원하는 경우, 디바이스(10)는 힘 센서들(14) 이외의 입출력 디바이스들을 포함할 수 있다. 예를 들어, 디바이스(10)는 광학 센서들(예를 들어, 광을 검출하는 센서들 또는 광을 방출하고 반사된 광을 검출하는 센서들), 이미지 센서들, 상태 표시등들 및 디스플레이들(예를 들어, 광의 하나 이상의 영역들을 방출하는 발광 다이오드들과 같은 광 기반 컴포넌트들, 이미지들, 텍스트 및 그래픽 등을 디스플레이하기 위한 픽셀 어레이들 등)은 버튼들(예를 들어, 전원 버튼들 및 다른 제어 버튼들), 오디오 컴포넌트들(예를 들어, 마이크로폰들, 스피커들, 톤 발생기들 등), 터치 센서들, 위치, 배향 및/또는 모션을 검출하기 위한 센서들(예를 들어, 가속도계들, 나침반 센서들과 같은 자기 센서들, 자이로스코프들, 이러한 센서들 중 일부 또는 전부를 포함하는 관성 측정 유닛들), 손가락 액션들을 검출하기 위한 근육 활동 센서들(EMG), 및/또는 입력을 수집하기 위한 다른 회로를 포함할 수 있다.
햅틱 출력 디바이스들(18)은 전자기 액추에이터들(예를 들어, 진동기들, 선형 솔레노이드 등)일 수 있거나, 압전 디바이스들(예를 들어, 디바이스(10) 내의 힘 감지 압전 디바이스들과는 별개인 압전 디바이스들 및/또는 햅틱 출력 디바이스들 및 힘 센서들 둘 모두로 기능하는 압전 디바이스들)일 수 있거나, (예를 들어, 형상 기억 합금들을 가열함으로써) 열-유도된 물리적 변화들을 사용하여 햅틱 출력을 생성하는 컴포넌트들일 수 있거나, 전기활성 중합체 컴포넌트들일 수 있거나, 햅틱 출력을 생성하는 다른 적합한 컴포넌트들일 수 있다.
제어 회로(14)는 디바이스(10)의 동작을 지원하기 위한 저장 및 프로세싱 회로를 포함할 수 있다. 저장 및 프로세싱 회로는 비휘발성 메모리(예를 들어, 플래시 메모리, 또는 솔리드 스테이트 드라이브를 형성하도록 구성되는 다른 전기적 프로그래밍가능 판독 전용 메모리), 휘발성 메모리(예를 들어, 정적 또는 동적 랜덤 액세스 메모리) 등과 같은 저장장치를 포함할 수 있다. 제어 회로(14) 내의 프로세싱 회로는 센서들 및 다른 입력 디바이스들로부터 입력을 수집하는 데 사용될 수 있고, 햅틱 출력 디바이스들(18)과 같은 출력 디바이스들을 제어하는 데 사용될 수 있다. 프로세싱 회로는 하나 이상의 마이크로프로세서들, 마이크로제어기들, 디지털 신호 프로세서들, 기저대역 프로세서들 및 다른 무선 통신 회로들, 전력 관리 유닛들, 오디오 칩들, 주문형 집적 회로들 등에 기초할 수 있다.
제어 회로(14)는 전자 디바이스(20)와 같은 외부 장비와의 통신을 지원하기 위한 안테나들, 무선 주파수 송수신기 회로, 및 다른 무선 통신 회로 및/또는 유선 통신 회로를 포함할 수 있다. 제어 회로(14)는, 예를 들어, 무선 근거리 네트워크 링크, 셀룰러 전화 링크, 또는 다른 적합한 유선 또는 무선 통신 링크(예를 들어, 블루투스® 링크, 와이파이® 링크, 60 ㎓ 링크 등)를 통해 디바이스(20)와의 양방향 통신을 지원할 수 있다. 디바이스(20)는, 예를 들어, 태블릿 컴퓨터, 데스크톱 컴퓨터, 셀룰러 전화기, 헤드 장착형 디스플레이와 같은 헤드 장착형 디바이스, 웨어러블 장비, 손목 시계 디바이스, 셋톱 박스, 게임 유닛, 텔레비전, 데스크톱 컴퓨터 또는 다른 전자 장비에 결합되는 디스플레이, 음성 제어식 스피커, 가정용 자동화 장비, 액세서리(예를 들어, 이어버드들, 휴대용 디바이스를 위한 제거가능한 케이스 등), 또는 다른 전자 장비일 수 있다. 디바이스(20)는 센서들, 버튼들, 카메라들, 디스플레이들, 및 다른 입출력 디바이스들과 같은 입출력 회로를 포함할 수 있고, 디바이스(20)의 동작을 제어하기 위한 제어 회로(예를 들어, 제어 회로(14)와 같은 제어 회로)를 포함할 수 있다. 제어 회로(14)는 무선 전력 회로(예를 들어, 코일을 갖는 대응하는 무선 전력 송신 회로를 갖는 무선 전력 송신 디바이스로부터 무선 송신된 전력을 수신하기 위한 코일 및 정류기)를 포함할 수 있다. 무선 전력 송신 동작들(예를 들어, 유도 전력 송신) 동안, 무선 전력이 디바이스(20)에 제공되고 디바이스(20) 내의 부하 회로(예를 들어, 회로(14), 디바이스들(18), 센서들(16) 등)에 분배될 수 있다. 회로(14)는 유선 전력 디바이스 및/또는 무선 전력 송신 디바이스로부터의 전력을 저장하기 위한 에너지 저장 회로(예를 들어, 배터리들 및/또는 커패시터들)를 포함할 수 있다.
디바이스(20)는 시스템(12) 내의 하나 이상의 추가적인 디바이스들에 결합될 수 있다. 예를 들어, 디스플레이를 갖는 헤드 장착형 디바이스가 사용자에게 시각적 콘텐츠(가상 현실 콘텐츠 및/또는 증강 현실 콘텐츠)를 디스플레이하기 위해 사용될 수 있다. 이러한 헤드 장착형 디바이스는 셀룰러 전화기, 태블릿 컴퓨터, 랩톱 컴퓨터, 또는 유선 및/또는 무선 통신 링크들을 사용하는 다른 장비와 같은 전자 디바이스에 결합될 수 있다. 디바이스(20)들이 입력(예를 들어, 사용자 손가락 위치 정보)을 수집하고 (예를 들어, 디바이스 내의 햅틱 출력 컴포넌트들을 사용하여) 출력을 제공하기 위해 디바이스(10)와 통신할 수 있다.
동작 동안, 디바이스(10)의 제어 회로(14)는 제어 디바이스(20)에서 사용하기 위한 힘 센서 정보와 같은 사용자 입력 및 다른 센서들로부터의 정보를 디바이스(20)로 송신하기 위해 통신 회로를 사용할 수 있다. 디바이스(10) 내의 센서들 및 다른 입력 디바이스들로부터의 정보 및/또는 디바이스(20)로부터의 정보가 햅틱 출력 디바이스들(18)을 이용하여 사용자에게 제공되는 햅틱 출력의 강도 및 지속기간을 결정하는 데 제어 회로(14)에 의해 사용될 수 있다.
도 2는 사용자의 손과 예시적인 핑거 장착형 디바이스의 평면도이다. 도 2에 도시된 바와 같이, 디바이스(10)는 사용자의 손가락들(32) 상에 장착된 하나 이상의 핑거 장착형 유닛들(22)로 형성될 수 있다. 유닛들(22)은 예를 들어 손가락들(32)의 끝부분들 상에 (예를 들어, 손톱들(34)과 중첩하여) 장착될 수 있다. 제어 회로(14)의 일부 또는 전부는 유닛들(22) 내에 포함될 수 있거나, 별개의 하우징 구조체들 내에 장착될 수 있다(예를 들어, 손목 밴드의 일부, 장갑, 손가락 없는 장갑 또는 사용자의 손가락 끝부분들의 패드들 아래의 부분들이 제거된 장갑과 같은 부분 장갑 등). 신호 경로들(24)과 같은 신호 경로들은 유닛들(22)의 회로 및/또는 유닛들(22)의 외부에 위치되는 제어 회로(14)와 같은 추가적인 회로를 상호연결하는 데 사용될 수 있다.
신호 경로들(24)은 유선 또는 무선 링크들을 포함할 수 있다. 유선 경로들은, 예를 들어, 가요성 인쇄 회로와 같은 인쇄 회로 상의 금속 트레이스들을 사용하고, 와이어들을 사용하고, 직조, 편직 또는 편조된 직물 내의 전도성 스트랜드들(예를 들어, 와이어들 또는 금속-코팅된 중합체 스트랜드들)을 사용하고/사용하거나 다른 전도성 신호 라인들을 사용하여 형성될 수 있다. 제어 회로(14)의 일부 또는 전부가 유닛들(22)의 외부에 위치되는 구성들에서, 신호 경로들(24)과 같은 신호 경로들이 유닛들(22)의 회로를 이러한 제어 회로에 결합시키기 위해 사용자의 손(30)의 일부 또는 전부를 가로질러 연장될 수 있다. 원하는 경우, 제어 회로(10)가 하나 이상의 유닛들(22) 내에 위치되고 이러한 유닛들(22)이 유선 또는 무선 경로들(24)에 의해 상호접속되는 구성이 또한 사용될 수 있다.
유닛들(22)이 사용자의 손끝들 상에 위치될 때, 유닛들(22) 내의 컴포넌트들이 사용자의 손끝들과 외부 표면들 사이의 접촉을 감지할 수 있다. 일부 구성들에서, 사용자의 손끝(예를 들어, 사용자의 손끝의 패드)이 표면과 접촉할 수 있고, 손끝이 표면과 접촉하는 동안 사용자가 손끝을 도 2의 측면 방향들(28 및 26)과 같은 측면 방향들을 따라 측방향으로 이동시킬 수 있다. 손끝의 패드가 표면과 접촉하는 동안의 손끝의 측방향 이동(예를 들어, 접촉된 표면의 평면에 평행한 차원들에서의 손끝의 이동)은 하나 이상의 유닛들(22)의 컴포넌트들에 의해 검출될 수 있는 전단력들을 발생시킬 수 있다. 이는 사용자 자신의 손끝이 도 1의 디바이스(20)와 같은 디바이스 내의 온-스크린 커서 또는 다른 조정가능한 시스템 특징부를 제어할 수 있는 (예를 들어, 조이스틱으로 사용되기 위한) 포인팅 디바이스로 사용되게 한다. 일부 구성들에서, 유닛들(22)은 손가락들(32)의 손끝들 이외의 손(30)의 부분들 상에 착용될 수 있다. 예를 들어, 유닛들(22)은 도 2의 예시적인 유닛들(22')에 의해 도시된 바와 같이, 손가락들(32)의 길이들을 따른 다른 곳에 착용될 수 있다. 원하는 경우, 유닛들(22 및 22')은 (예를 들어, 다수의 손가락 위치들로부터 정보를 수집하기 위해) 디바이스(10) 내에서 함께 사용될 수 있다. 유닛들(22)이 손가락들(32)의 끝부분들에 장착되는 예시적인 구성이 때때로 본 명세서에서 예로서 기술될 수 있다.
유닛들(22)은 손가락들(32)의 끝부분들을 부분적으로 또는 완전히 둘러쌀 수 있다. 도 3은 유닛(22)의 본체가 손가락(32)을 둘러싸는(예를 들어, 유닛(22)이 손가락(32)의 상부, 측부들 및 하부 핑거 패드 부분의 부분들을 갖는) 구성의 사용자의 손가락(32) 상의 예시적인 핑거 장착형 디바이스(유닛(22))의 단면도이다. 도 3의 유닛(22)은, 예를 들어, 사용자가 유닛(22)을 통해 표면들을 느낄 수 있게 하는 연성 탄성중합체 재료, 직물, 또는 다른 가요성 재료로 형성될 수 있다. 원하는 경우, 센서들, 햅틱 디바이스들, 및 또는 다른 컴포넌트들은 위치(36)와 같은 위치들에서 손가락(32)의 패드 아래에 장착될 수 있다.
원하는 경우, 유닛들(22)은 U자형 단면 프로파일을 가질 수 있어서, 사용자의 손끝들의 패드들이 노출되고 디바이스(10)의 임의의 부분들에 의해 덮이지 않는 반면, 유닛들(22)이 사용자의 손가락들의 상부들 및/또는 측부들만을 덮는다. 이러한 유형의 구성을 갖는 유닛들(22)은 사용자가 사용자의 자신의 피부로 표면들을 터치하게 함으로써, 디바이스(10)가 사용되고 있는 환경에 대한 사용자의 감도를 향상시킬 수 있다. 예를 들어, 사용자의 손끝들의 상부들 및 측부들만을 덮는 유닛들(22)은 사용자의 손가락의 패드들이 터치된 표면 상의 작은 표면 결함들, 표면 텍스처의 약간의 요철부(irregularity)들, 및 사용자의 손가락들의 패드들이 덮이는 구성에서 가려질 수 있는 다른 세부들을 검출하게 할 수 있다.
도 4는 유닛(22)의 본체(38)가 사용자의 손끝을 단지 부분적으로 둘러싸도록 구성되는 핑거 장착형 디바이스(10)를 위한 예시적인 유닛(22)의 사시도이다. 도 4에 도시된 바와 같이, 본체(38)는 측벽 부분들(40)과 같은 부분들(예를 들어, 사용자의 손가락의 측부들과 접촉하는 부분들) 및 결합 부분(42)과 같은 부분들(예를 들어, 사용자의 손끝의 상부를 덮거나, 또는 일부 구성들에서 사용자의 손끝의 하부에서 사용자의 손끝의 패드를 덮는 약간 구부러진 부분)을 포함할 수 있다. 부분(42)은 사용자의 손가락의 대향하는 좌측 및 우측들에 인접한 측벽 부분들(40)을 지지할 수 있다. 본체(38)를 형성하는 금속 부재 또는 다른 구조체의 절곡을 용이하게 하기 위해 선택적인 개구들(44)과 같은 개구들이 본체(38) 내에 형성될 수 있다. 본체(38)는 사용자의 손끝 상의 본체(38)의 장착을 용이하게 하도록 테이퍼질 수 있다(예를 들어, 본체(38)는 폭(W1)을 갖는 보다 넓은 부분 및 W1보다 작은 폭(W2)을 갖는 사용자의 손가락의 최외곽 끝부분을 위한 보다 좁은 부분을 가질 수 있음).
도 5는 사용자의 손가락(예를 들어, 손가락(32)의 끝부분의 하부에 있는 핑거 패드(48))이 표면(46)과 같은 외부 표면 상에 가볍게 놓이는 구성의 도 5의 유닛(22)과 같은 예시적인 유닛의 단부도이다. 도 5에 도시된 바와 같이, 유닛(22)의 본체(38)는 마찰 끼워맞춤으로 본체(38)를 손가락(32)에 유지시키는 U자형 단면 프로파일을 가질 수 있다. 이러한 구성에 의해, U자형 본체(38)의 개방 측부는 핑거 패드(48)를 노출시키도록 하방으로 향할 수 있다.
도 6에 도시된 바와 같이 사용자가 손가락(32)을 방향(50)으로 측방향으로 이동시킬 때, 전단력들이 생성된다. (예를 들어, 측벽들(40) 내의) 힘 센서들은 이러한 전단력을 검출할 수 있고, 검출된 전단력을 사용하여 사용자의 측방향 손가락 이동을 측정할 수 있다.
도 7은 표면(46)에 대한 손가락 누르기 입력 힘이 측정될 수 있는 방식을 도시한다. 사용자가 손가락(32)을 방향(52)으로 표면(46)에 대항하여 하향 가압하는 경우, 손가락(32)의 부분들이 방향들(54)을 따라(예를 들어, 대칭으로) 외향으로 강제될 것이다. 유닛(22)의 본체(38)의 측벽 부분들(40) 내의 힘 센서들은 이러한 외향력들을 검출할 수 있고, 이러한 정보를 사용하여 방향(52)으로 인가되는 하향력의 양을 정량화할 수 있다.
도 8은 전기 컴포넌트들에 대한 예시적인 장착 위치들을 도시하는 예시적인 핑거 장착형 유닛의 단면도이다. 도 8에 도시된 바와 같이, 컴포넌트들(56)은 본체(38)의 내부 및/또는 외부 표면들 상에(예를 들어, 본체(38)의 측벽 부분들(40) 및/또는 상부 부분(42) 상에) 장착될 수 있다. 일례로서, 힘 센서들은 도 6 및 도 7과 관련하여 기술된 바와 같이 손가락 힘들을 검출하기 위해 측벽 부분들(40) 상에 장착될 수 있다. 다른 예로서, 햅틱 출력 디바이스들(18)은 측벽 부분들(40) 상에(예를 들어, 외부 표면 상에, 대향하는 내부 측벽 표면 상의 대향하는 힘 센서를 향하는 내부 표면 상에, 본체(38)의 부분(42)의 상부 또는 하부 표면 상에) 장착될 수 있다. 컴포넌트들(56)은 가속도계 또는 손가락(32)에 대한 모션, 배향, 및/또는 위치를 검출하는 다른 센서를 포함할 수 있다. 예를 들어, 가속도계는 부분(42)의 상부 표면 상에 또는 유닛들(22) 내의 다른 곳에 위치될 수 있다. 사용자가 손가락 탭 입력을 디바이스(10)에 제공하기 위해 표면(46)(도 7) 상에서 가볍게 탭핑하는 경우, 가속도계는 탭에 대응하는 유닛(22)의 속도의 갑작스런 변화(예를 들어, 측정된 가속도의 피크)를 검출할 수 있다. 힘 센서들 및 가속도계들 둘 모두가 디바이스(10) 내에 존재하는 경우, 디바이스(10)는 손가락 누르기 입력(하향력), 측방향 손가락 모션 입력(전단력들), 및 손가락 탭 입력(가속도계 출력 신호 피크들)을 측정할 수 있다.
본체(38)에 의해 지지될 수 있는 다른 컴포넌트들(56)은 유선 및/또는 무선 통신 회로 및/또는 다른 회로(14)(예를 들어, 본체 부분(42)에 의해 지지되는 회로)를 위한 컴포넌트들, 배터리들, 광학 센서들(예를 들어, 부분(42) 상의 발광 및 광 검출 컴포넌트들), 스트레인 게이지(예를 들어, 부분(42)의 폭의 일부 또는 전부를 가로질러 연장되고, 부분(42)에 대한 측벽 부분들(40)의 이동과 부분(42)의 만곡된 형상의 대응하는 평탄화(flattening)로부터 초래되는 스트레인을 측정하기 위해 부분(42)의 상부 표면 상에 선택적으로 장착될 수 있는 스트레인 게이지), 및/또는 유닛들(22)의 위치들 및/또는 배향들의 카메라 기반 위치 모니터링(예를 들어, 디바이스(20) 내의 이미지 센서들 또는 다른 외부 장비를 사용한 위치 모니터링)을 용이하게 하기 위한, 부분(42)의 상부 상이나 본체(38)의 다른 곳의 발광 다이오드들 또는 수동 마커 구조체들과 같은 발광 디바이스들을 포함할 수 있다.
도 9는 도 8의 예시적인 핑거 장착형 유닛의 측면도이다. 도 9에 도시된 바와 같이, 센서들 또는 다른 컴포넌트들(56)이 유닛(22)의 본체 측벽 부분(40)의 측부를 따라 분할될 수 있다. 원하는 경우, 본체(38)에 의해 지지되는 센서들 또는 다른 컴포넌트(56)들은 컴포넌트들(56')과 같은 다수의 서브컴포넌트들을 가질 수 있다. 예를 들어, 도 9의 측벽(40) 상의 힘 센서 및/또는 햅틱 디바이스는 다수의 컴포넌트들(56')을 가질 수 있고, 이들 각각은 별개의 각자의 힘 센서 측정치를 생성하고/하거나 이들 각각은 별개의 각자의 햅틱 출력을 생성한다. 이는 동작 동안 (예를 들어, 사용자의 손가락의 상이한 부분들이 도 7의 방향들(52)을 따라 외향으로 누르고 있는 곳을 비교함으로써 사용자의 손가락의 끝부분 내의 손가락 누르기의 위치에 대한 정보를 정확하게 획득하는 것을 돕기 위해) 생성되는 힘들에 대해 보다 상세한 측정들이 이루어지게 하고, 보다 상세한 햅틱 피드백이 사용자에게 제공되게 한다. 원하는 경우, 힘 센서들과 같은 다수의 센서들 및/또는 다수의 햅틱 출력 디바이스들 또는 다른 컴포넌트들(56')이 도 10에 도시된 바와 같이 본체(38)의 상부 부분(42) 상에 배치될 수 있다.
압전 컴포넌트들은 (인가되는 힘을 제어 회로(14)에 의한 프로세싱을 위한 전기 신호들로 변환함으로써) 힘 센서들을 형성하는 데 사용될 수 있고, (제어 회로(14)로부터의 전기 신호들을 사용자의 손에 인가되는 힘들로 변환함으로써) 햅틱 출력 디바이스들을 형성하는 데 사용될 수 있다. 예시적인 압전 디바이스가 도 11에 도시되어 있다. 도 11의 압전 디바이스(60)는 부분(66)과 같은 빔형 부분을 갖는 지지 구조체(68)와 같은 지지 구조체를 갖는다. 압전 층들(62 및 64)은 빔 부분(66)의 대향 표면들 상에 형성될 수 있다. 힘 센서에서, 인가된 힘으로 인한 빔(66)의 절곡은 층(62)에서의 압축 응력 및 층(64)에서의 인장 응력을 유도할 것이며, 이는 힘 판독치를 생성하기 위해 회로(14)를 사용하여 측정 및 평가될 수 있다. 햅틱 출력 디바이스에서, 전압이 제어 회로(14)에 의해 층들(62 및 64)에 인가될 수 있고, 이는 층(62)은 수축되고 층(64)은 팽창되게 하여 도 12에 도시된 바와 같이 빔 부분(66)을 편향시킨다. 원하는 경우, 컴포넌트(60)와 같은 압전 컴포넌트들은 도 12의 예시적인 디스크 형상과 같은 다른 형상들을 가질 수 있다. 이러한 유형의 구성을 갖는 힘 센서에서, 축(70)을 따라 컴포넌트(60)에 인가된 힘은 제어 회로(14)에 의해 측정될 수 있는 층들(62 및 64)에 압축 및 인장 응력들을 생성할 수 있다. 이러한 유형의 구성을 갖는 햅틱 출력 디바이스에서, 층들(62 및 64)에 인가된 전기 신호들은 컴포넌트(60)를 축(70)을 따라 위로 또는 아래로 편향시키는 데 사용될 수 있다.
용량성 감지 기법들이 힘을 측정하는 데 사용될 수 있다. 일례로서, 도 13의 용량성 힘 센서를 고려해본다. 용량성 힘 센서(73)는 기판(75)과 같은 기판(예를 들어, 가요성 또는 강성 인쇄 회로 등)을 갖는다. 하나 이상의 용량성 힘 센서 요소들(83)이 기판(75) 상에 형성될 수 있다. 예를 들어, 힘 센서 요소들(83)의 1차원 또는 2차원 어레이가 기판(75) 상에 형성될 수 있고, 이들은 기판(75) 상의 금속 트레이스들로 형성된 신호 라인들을 사용하여 제어 회로(14) 내의 용량성 측정 회로에 결합된다. 각각의 용량성 힘 센서 요소(83)는 압축성 재료(79)(예를 들어, 중합체 폼, 실리콘과 같은 탄성중합체 재료 등)에 의해 분리된 전극들(77 및 80)과 같은 용량성 힘 감지 전극들을 가질 수 있다. 제어 회로(14)는 각각의 요소(83) 내의 전극들의 쌍 사이의 정전용량을 측정할 수 있다. 주어진 요소(83)에 인가된 힘에 응답하여, 그 요소 내의 압축성 재료(79)는 보다 박형화될 것이고 전극 간격은 감소될 것이어서, 이는 제어 회로(14)가 인가된 힘의 크기를 결정하기 위해 측정할 수 있는 정전용량의 증가로 이어질 것이다.
힘 감지를 위한 압전 컴포넌트들을 사용하고/하거나 햅틱 출력을 제공하는 것에 더하여 또는 그 대신에, 그리고 힘 감지를 위한 용량성 힘 센서 구성들을 사용하는 것에 더하여 또는 그 대신에, 디바이스(10)는 다른 힘 감지 및/또는 햅틱 출력 디바이스들을 사용할 수 있다. 예를 들어, 힘은 연성 압전 중합체들, 마이크로 전자 기계 시스템(MEMS) 힘 센서들, 스트레인 게이지(예를 들어, 부분(42)의 표면에 장착된 평면 스트레인 게이지), 저항성 힘 센서들, 압력 변동들로 인한 피부 색상 변화들을 측정하는 광학 센서들, 및/또는 다른 힘 감지 컴포넌트들에 의해 감지될 수 있다. 햅틱 출력 디바이스들은 선형 솔레노이드들과 같은 전자기 액추에이터들, 비대칭 질량체들을 회전시키는 모터들, 전기활성 중합체들, 형상 기억 합금들에 기초한 액추에이터들, 공압 액추에이터들, 및/또는 다른 햅틱 출력 컴포넌트들에 기초할 수 있다.
도 14에 도시된 바와 같이, 유닛(22)은 부분(42)이 손톱(34)에 인접하고 핑거 패드(48)가 노출되는 구성으로 착용될 수 있다. 유닛(22)은 사용자의 환경에서 객체들을 느낄 수 있는 사용자의 능력을 최대화하는 것이 요구될 때 이러한 방식으로 착용될 수 있다. 도 15는 도 14의 배향과 비교하여 유닛(22)의 위아래가 뒤바뀌고 부분(42)이 핑거 패드(48)에 인접하는 뒤집힌 구성으로 유닛(22)이 착용될 수 있는 방식을 도시한다. 유닛(22)은, (예를 들어, 디바이스(10)가 가상 현실 시스템에서 사용되고 있으며, 외부 표면들과의 사용자의 실제 터치 없이 햅틱 출력이 사용자에게 제공되고 있는 경우) 본체(38) 상의 햅틱 출력 컴포넌트(들)와 핑거 패드(48) 사이의 햅틱 결합을 향상시키기 위해 이러한 방식으로 착용될 수 있다. 도 16은 유닛(22)의 측벽 부분들이 플랩들(40P 또는 40P')과 같은 회전가능한 플랩을 가질 수 있는 방식을 도시한다. 플랩은 위치(40F)(예를 들어, 햅틱 출력 디바이스 또는 다른 컴포넌트(56)가 핑거 패드(48)에 인접해 있는 위치)로 회전할 수 있다.
햅틱 출력은 유닛(22)의 햅틱 출력 디바이스(들)의 변위에서 하나 이상의 펄스들 형태로 제공될 수 있다. 도 17은 유닛(22) 내의 햅틱 출력 디바이스를 제어하는 데 사용될 수 있는 유형의 예시적인 구동 신호(DR)의 그래프이다. 도 17의 예에서, 구동 신호는 한 쌍의 근접하게 이격된 펄스들(85)(예를 들어, 약 100 내지 300 ㎐, 적어도 150 ㎐ 이하, 250 ㎐ 미만, 또는 다른 적합한 주파수의 속도로 발생하는 2개의 펄스들(85))을 포함한다. 도 17의 펄스들의 그룹(그룹(86))에는 2개의 펄스들이 있지만, 원하는 경우, 보다 적은 펄스들 또는 보다 많은 펄스들이 구동 신호(DR)에 포함될 수 있다. 인간 손가락들은 전형적으로 1 내지 1000 ㎐의 신호들에 민감함을 나타내고, 1 내지 300 ㎐의 범위 내의 신호들에 특히 민감하다. 그러나, 원하는 경우, 다른 주파수들의 구동 신호들(DR)이 사용될 수 있다. 각각의 펄스(85)는 절두(truncated) 사인파의 형상, 가우스 형상, 또는 다른 적합한 형상을 가질 수 있다.
도 18은 유닛(22)이 본체(38)의 다른 부분들을 지지하는 것을 돕는 프레임 부재들(88)을 갖는 예시적인 핑거 장착형 디바이스 구성의 사시도이다. 프레임 부재들(88)은 플라스틱 또는 시트 금속의 층과 같은 변형가능한 구조체와 중첩되는 변형가능한 금속 와이어들과 같은 세장형 구조체들일 수 있다. 프레임 부재들(88)의 존재는 사용자가 본체(38)를 제어가능하게 변형시켜 사용자의 손가락(32)의 끝부분 상에 본체(38)의 만족스러운 마찰 끼워맞춤을 생성하게 하는 것을 도울 수 있다.
도 19의 예에서, 공압 컴포넌트들(90)이 본체(38)의 측벽 부분들(40)의 내부 표면들 상에 형성되었다. 팽창 시, 공압 컴포넌트들(90)(예를 들어, 벌룬들)은 위치(90')로 팽창함으로써, 유닛(22)을 사용자의 손가락 상에 유지하는 것을 돕는다.
도 20은 폼 또는 다른 압축성 재료(예를 들어, 실리콘 또는 다른 탄성중합체 재료)의 층(층(92))이 본체(38)의 측벽 부분들(40) 및 부분(42)의 내부 표면들 상에 배치된 유닛(22)에 대한 예시적인 구성의 도면이다. 유닛(22)이 사용자의 손가락 상에 배치되는 경우, 압축성 층(92)은 사용자 손가락의 형상에 순응하여 사용자의 손가락 상에 유닛(22)을 유지하는 것을 도울 수 있다.
도 21은 너트(93)와 같은 나사형 체결구가 본체(38)를 사용자의 손가락 상에 유지시키는 것을 돕기 위해 본체(38)의 폭을 조정하는 데 사용될 수 있는 방식을 도시한다. 너트(93)는 본체 부분(42)의 부분(98) 상의 나사산들 상에 수용될 수 있다. 너트(93)가 축(94)을 중심으로 하여 방향들(96)을 따라 회전되는 경우, 본체 부분(42)의 부분들(98)은 너트(93)의 회전 방향에 따라 함께 끌어당겨지거나 이격되게 가압될 것이다. 부분들(98)이 서로를 향해 끌어당겨지는 경우, 본체 측벽 부분들(40)은 방향들(100)을 따라 내향 편향됨으로써, 본체 측벽 부분들(40) 사이의 이격 거리를 감소시키고 유닛(22)을 사용자의 손가락 상에 고정할 것이다.
도 22의 예에서, 유닛(22)은 서로에 대해 슬라이딩하는 부분들을 갖는다. 특히, 본체 부분(42)은 유닛(22)의 폭을 조정함으로써 측벽 부분들(40)의 이격 거리를 편안한 크기로 조정하기 위해, 부분(42-2)과 같은 제2 부분에 대해 슬라이딩하는 부분(42-1)과 같은 제1 부분을 가질 수 있다. 부분들(42-1 및 42-2)의 영역들(102)은 부분들(42-1 및 42-2)을 함께 유지하고 유닛(22)을 사용자의 손가락들 상에 원하는 구성으로 고정하는 것을 돕는 자기 인력을 나타낼 수 있다.
도 23은 스프링(104)과 같은 편향 구조체가 유닛(22)을 사용자의 손가락 상에 고정하기 위해 방향들(100)을 따라 부분들(42-1 및 42-2)을 서로를 향해 끌어당길 수 있는 방식을 도시한다.
도 24는 본체(38)가 변형가능한 금속 층(들)과 같은 변형가능한 구조체들로 형성되는 예시적인 구성의 유닛(22)의 측단면도이다. 이러한 유형의 구성에 의해, 사용자의 손가락 상에 유닛(22)을 고정하는 것이 요구될 때 벽 부분들(40)이 방향들(100)을 따라 위치들(40')과 같은 위치들로 내향 절곡될 수 있다. 이러한 유형의 구성의 본체(38)는 탄성중합체 재료로 코팅된 금속 층을 포함할 수 있다. 도 25에 도시된 바와 같이, 예를 들어, 본체(38)는 중심 금속 층(38M) 및 중합체 코팅 층들(38P)을 포함할 수 있다.
도 26은 손가락(32) 상에 있지만 손가락(32)의 끝부분에서 손톱(34)과 중첩되지 않는 위치에서의 예시적인 핑거 장착형 유닛(유닛(22'))의 측면도이다. 디바이스(10)는 하나 이상의 핑거 장착형 유닛들을 가질 수 있고, 이러한 유닛들은 일반적으로 사용자의 손끝들, 사용자의 손가락들(32) 상의 다른 위치들 등에 위치될 수 있다.
도 27은 컴포넌트들(56)이 사용자의 손가락(32)의 배면 상의 영역(32T)과 같은 영역으로부터 터치 입력을 수집할 수 있는 광학 센서들을 포함할 수 있는 방식을 도시한다. 광학 센서들은 발광 다이오드들, 레이저들, 또는 다른 발광 컴포넌트들(예를 들어, 적외선 발광 다이오드들)을 포함할 수 있고, 솔리드 스테이트 광 검출기들(예를 들어, 포토다이오드들, 포토트랜지스터들 등)과 같은 광 검출 컴포넌트들을 포함할 수 있다. 발광 컴포넌트들은 경로들(110)을 따라 광을 방출할 수 있고, 광 검출 컴포넌트들은 이들 경로들(110) 중 하나와 교차하는 사용자의 손끝 또는 다른 외부 객체의 존재로 인해 경로들(110)을 따라 반사광을 검출할 수 있다. 경로들(110)은 서로 평행할 수 있고/있거나 (예를 들어, 삼각측량을 용이하게 하기 위해) 경사진 경로들을 포함할 수 있다. 이러한 유형의 구성에서 광학 센서들로부터의 광학 센서 신호들을 프로세싱함으로써, 제어 회로(14)는 영역(32T) 내의 객체의 위치를 (예를 들어, 1차원 또는 2차원으로) 측정할 수 있다. 이는 영역(32T)이 소형 휴대용 트랙 패드로 사용될 수 있게 한다.
도 28에 도시된 바와 같이, 시스템(12) 내의 전자 디바이스(20)와 같은 외부 장비는 하나 이상의 카메라들(71)(예를 들어, 가시광선 카메라들, 적외선 카메라들 등)과 같은 센서들을 포함할 수 있다. 전자 디바이스(20)는, 일례로서, 증강 현실(혼합 현실) 또는 가상 현실 구글(또는 안경, 헬멧, 또는 다른 헤드 장착가능한 지지 구조체들)과 같은 헤드 장착형 디바이스일 수 있다. 시각적 마커들(72)이 사용자의 작업 환경에 배치될 수 있다. 마커들(72)은, 예를 들어, 바코드들, 교차 심볼들, 또는 다른 시각적으로 식별가능한 패턴들과 같은 수동 시각적 마커들일 수 있고, 탁상 또는 다른 작업 표면에 적용될 수 있다. 원하는 경우, 마커들(72)은 패드(74)와 같은 작업 표면 패드의 일부로 형성될 수 있다. 마커들은 또한 핑거 장착형 디바이스(들)(10) 상에 배치될 수 있다(예를 들어, 도 28의 유닛(22) 참조).
마커들(72)은, 원하는 경우, 카메라들을 사용하여 검출되는 발광 컴포넌트들(예를 들어, 식별가능한 변조 코드들을 사용하여 변조되는 시각적 발광 다이오드들 및/또는 적외선 발광 다이오드들)을 포함할 수 있다. 마커들(72)은 사용자가 시스템(12) 내의 컴퓨터 또는 다른 장비와 상호작용하고 있을 때 사용자의 가상 작업 표면 및 사용자의 손가락들 중 하나 이상의 손가락들의 위치를 시스템(10)에 알려주는 것을 도울 수 있다.
유닛들(22) 상의 시각적 마커들(72) 및/또는 유닛들(22) 내의 관성 측정 유닛들(예를 들어, 가속도계들, 나침반들, 및/또는 자이로스코프들)은 사용자의 작업 영역 상의 마커들(72)에 대한 사용자의 손가락 위치들(예를 들어, 핑거 장착형 유닛들(22)의 위치들)을 추적하는 데 사용될 수 있다. 동시에, 시스템(10)은 연관된 시각적 콘텐츠를 사용자에게 디스플레이할 수 있다. 사용자는 힘 입력, 모션 입력(예를 들어, 에어 제스처(air gesture)들), 탭들, 전단력 입력, 및 유닛들(22) 내의 관성 측정 유닛들 및/또는 디바이스(들)(10) 내의 힘 센서들 및 다른 센서들에 의해 유닛들(22)로부터 수집된 다른 입력을 제공함으로써 디스플레이된 시각적 콘텐츠와 상호작용할 수 있다.
예를 들어, 마커들(72)에 대한 핑거 장착형 유닛들(22)의 위치에 대한 정보는 시스템(10)의 동작 동안, 사용자가 디스플레이된 시각적 요소를 선택(예를 들어, 하이라이트), 이동, 또는 달리 조작했고/했거나 커맨드들을 시스템(12)에 제공했음을 나타내는 힘 입력, 제스처 입력(예를 들어, 탭들, 3차원 에어 제스처들 등)에 대해 유닛들(22)을 모니터링하면서, 디바이스(20) 내의 제어 회로 또는 시스템(10) 내의 다른 전자 장비(예를 들어, 컴퓨터, 셀룰러 전화기, 또는 디바이스(20)에 결합되는 다른 전자 디바이스)에 의해 수집될 수 있다. 일례로서, 사용자는 시각적 콘텐츠를 좌측으로 이동시키기 위해 왼손 흔들기와 같은 에어 제스처를 만들 수 있다. 시스템(10)은 왼손 흔들기 제스처를 검출하기 위해 유닛들(22) 내의 관성 측정 유닛들을 사용할 수 있고, 왼손 흔들기 제스처에 응답하여 디바이스(20) 내의 디스플레이로 사용자에게 제시되는 시각적 요소들을 이동시킬 수 있다. 다른 예로서, 사용자는 사용자의 시야 내의 시각적 요소를 탭핑함으로써 그 요소를 선택할 수 있다.
이러한 방식으로, 디바이스(20) 내의 제어 회로, 및/또는 시스템(10) 내의 다른 제어 회로는 사용자가 사용자에 의해 관찰되는 시각적 요소들(예를 들어, 가상 현실 콘텐츠 또는 증강 현실 구글 또는 디스플레이를 갖는 다른 디바이스(20)와 같은 헤드 장착형 디바이스로 제시되는 다른 시각적 콘텐츠)을 조작하게 할 수 있다. 원하는 경우, 카메라(71)와 같은 카메라가 사용자의 눈을 향할 수 있다(예를 들어, 카메라(71) 또는 다른 시각적 추적 장비가 시선 추적 시스템(gaze tracking system)의 일부를 형성할 수 있음). 시선 추적 시스템의 카메라 및/또는 다른 회로는 사용자가 실제 세계 객체들 및 시각적 콘텐츠를 관찰하고 있는 방향을 모니터링할 수 있다. 일례로서, 사용자가 디바이스(20)에 의해 제시된 가상 콘텐츠와 상호작용하고 있고 사용자가 실제 세계 콘텐츠와 상호작용하고 있을 때 사용자의 눈의 응시점(point of gaze)(응시 방향)을 모니터링하는 데 카메라가 사용될 수 있다. 디바이스(20), 유닛(22), 또는 다른 전자 장비 내의 제어 회로는 사용자의 시선이 특정 위치들에 머무는 시간량을 측정할 수 있고, 이러한 응시점 정보를 가상 객체들을 선택할 때를 결정하는 데 사용할 수 있다. 가상 객체들은 또한 (예를 들어, 응시점 정보를 분석함으로써) 사용자가 특정 객체를 관찰하고 있다고 결정되는 경우, 그리고 사용자가 음성 커맨드, 손가락 입력, 버튼 누르기 입력, 또는 관찰되고 있는 특정 객체를 선택하기 위한 다른 사용자 입력을 행했다고 결정되는 경우 선택될 수 있다. 응시점 정보는 또한 (예를 들어, 장면 내의 하나의 위치로부터 다른 위치로의 응시점의 이동에 따라 가상 객체들을 이동시키기 위한) 드래그 앤 드롭(drag and drop) 동작들 동안 사용될 수 있다.
도 29는 손가락(32) 상에 핑거 장착형 디바이스(22)를 착용하고 있는 사용자에 의해 시각적 요소들이 조작될 수 있는 방식을 도시하는 도면이다. 예시적인 요소(76)(예를 들어, 데스크톱 애플리케이션, 파일 폴더, 미디어 파일 또는 다른 파일을 표현하는 아이콘, 또는 다른 정보)와 같은 시각적 요소들이 디바이스(20) 내의 디스플레이를 사용하여 표시될 수 있다. 원하는 경우, 작업 공간(74)은 마커들(72)을 가질 수 있다. 사용자는 유닛(들)(22) 및/또는 디바이스(20) 내의 카메라들과 같은 시스템(12) 내의 다른 장비를 사용하여 검출되는 탭들, 힘 입력, 지속적 터치 입력, 에어 제스처들, 및/또는 다른 사용자 입력을 사용하여 시각적 아이템들을 선택할 수 있다.
예시적인 요소(76)와 같은 시각적 아이템들이 선택되고(예를 들어, 애플리케이션을 개시하기 위해, 아이템을 하이라이트하기 위해, 등), 이동되고, 삭제되고/되거나, 그렇지 않으면 제스처들(예를 들어, 드래그 앤 드롭 제스처들 등) 및 다른 사용자 입력을 사용하여 사용자에 의해 조작될 수 있다. 예를 들어, 사용자는 (손가락(32)의 끝부분의 위치가 유닛(22)을 사용하여 모니터링되는 동안) 손가락(32)의 끝부분을 입력 디바이스로 사용하여 작업 공간(74) 상의 위치(78)로 시각적 요소(76)를 드래그 앤 드롭할 수 있다. 손가락(32) 상의 유닛(22)은 햅틱 출력(예를 들어, 사용자가 미리결정된 경계를 지나 요소(76)를 드래그함에 따라 가상 디텐트(detent)를 생성하는 피드백)을 제공할 수 있다. 이러한 피드백은 시각적 피드백(예를 들어, 햅틱 피드백과 동기화되는 요소(76)의 외관의 색상 및 다른 면모들의 변화들)을 동반할 수 있다. 원하는 경우, 디바이스(20)는 가상 작업 공간(74')에 의해 도시된 바와 같이, 사용자의 앞에서(그리고, 원하는 경우, 사용자의 좌측 및 우측 및/또는 뒤에서) 상향 연장되는 가상 작업 공간 내의 시각적 요소들을 디스플레이할 수 있다. 사용자는 (예를 들어, 위치(80)에 요소(76)를 배치하기 위해) 시각적 요소(76)를 가상 작업 공간(74') 내의 위치로 드래그 앤 드롭할 수 있다. 작업 공간(74') 내의 아이템들은 에어 제스처들 또는 다른 입력(예를 들어, 음성 입력 등)을 사용하여 조작될 수 있다. 예를 들어, 사용자는 작업 공간(74') 내의 아이템들을 우측으로 이동시키기 위해 우측 스와이프를 사용할 수 있다.
사용자가 유닛(22)을 사용하여 가상 콘텐츠와 상호작용함에 따라, 사용자는 손가락(32)의 표면을 탁자 표면 또는 다른 표면에 접촉할 수 있다. 예를 들어, 손가락(32)의 끝부분의 하부에서의 핑거 패드(48)의 손가락 살들은 탁자 표면과 접촉할 수 있고, 손가락(32)에 의해 부여되는 힘에 의해 압축될 수 있다. 손가락 누르기 입력을 제공할 때 피로를 줄이고 사용자의 경험을 개선하기 위해, 사용자가 전자 디바이스에 입력을 제공할 시에 사용자의 손가락들에 부과되는 힘들은 사용자의 손가락 및/또는 전자 디바이스 내의 컴포넌트들에 결합되는 컴포넌트들을 사용하여 조정될 수 있다. 일례로서, 유닛(22)과 같은 핑거 장착형 디바이스 내의 컴포넌트들이 사용자의 손가락과 입력 표면(예를 들어, 작업 공간(74)와 연관된 표면) 사이의 충격을 완화시키는 것을 돕기 위해 사용될 수 있다.
조정되지 않은 손가락 충격 이벤트는 급격한 힘-변위 프로파일(force-versus-displacement profile)(예를 들어, 입력 표면을 향해 비교적 짧은 거리를 이동할 때 사용자의 손가락에 대해 급속히 상승하는 힘)에 의해 특징지어질 수 있다. 이러한 힘들을 조정함으로써, 사용자는 보다 약화된 손가락-대-입력 표면 상호작용들, 물리적 버튼 상에서의 클릭의 액션을 모방하는 손가락 감각들, 및/또는 다른 손가락 감각들을 제공받을 수 있다. 하나의 예시적인 구성에서, 유닛(22) 내의 액추에이터들(예를 들어, 압전 액추에이터들, 전자 기계 액추에이터들 등)은 손끝이 표면을 터치하기 직전에 사용자의 손끝을 압착할 수 있고(또는 압착하지 않을 수 있고), 이에 의해 손끝이 표면과 접촉할 때의 사용자의 경험을 선택적으로 조정할 수 있다. 예를 들어, 핑거 패드(48)가 표면(46)을 터치하기 직전에 유닛(22)의 좌측 및 우측에 있는 액추에이터들이 손가락(32) 상에서 내향 압착되고, 이에 의해 손가락(32)의 살들이 접촉 전에 표면(46)을 향해 돌출하게 한다면, 사용자는 액추에이터들이 손가락 상에서 내향 압착되지 않는 경우보다 표면(46)과의 보다 약화된 충격을 경험할 수 있다. 이들과 같은 조정들은 사용자가 가상 콘텐츠와 상호작용함에 따라 동적으로 이루어질 수 있다.
도 30은 시각적 요소(76)가 다수의 아이템들을 포함하는 목록일 수 있는 방식을 도시한다. 목록 내의 원하는 아이템은 (예시적인 선택된 아이템(76H)에 의해 도시된 바와 같이) 손가락(32)이 미리결정된 시간량보다 길게 원하는 아이템 위를 체공하게(hover)(머물게(linger)) 함으로써 선택될 수 있다. 시스템(10)에 의해 수집된 손가락 위치 정보(예를 들어, 유닛(22) 내의 관성 측정치, 유닛(22) 상의 마커를 측정하는 카메라, 등)는 어느 목록 아이템들이 선택되고, 하이라이트될 지 등을 결정하는 데 사용될 수 있다. 제스처들은 아이템들을 스크롤하는 데 사용될 수 있다.
원하는 경우, 시스템(10)(예를 들어, 디바이스(20) 내의 카메라들 등)은 광학 감지를 사용하여 유닛들(22)의 위치를 검출할 수 있다. 도 31에 도시된 바와 같이, 유닛들(22)은 시각적 마커들(72)(예를 들어, 수동 마커들, 가시광선 또는 적외선 발광 다이오드들, 등)을 포함할 수 있다. 마커들(72)은 부분들(42 및 40)과 같은 디바이스(10) 내의 유닛(22)의 부분들 상에 배치될 수 있다. 마커들(72)은 모호한 위치 데이터의 생성을 회피하는 것을 돕기 위해 인식가능한 비대칭 패턴으로 구성될 수 있다.
도 32는 예시적인 구성의 유닛(22)의 측단면도로서, 여기서 상부 부분(42)은 컴포넌트(56)가 하우징된 보다 두꺼운 부분(42N) 및 보다 얇은 부분(42T)과 같이 절곡을 용이하게 하기 위한 보다 얇은 부분을 갖는다. 보다 얇은 부분(42T)은 금속, 중합체, 및/또는 다른 재료들과 같은 가요성 재료로 형성될 수 있고, 부분들(42N) 사이에 개재될 수 있다.
원하는 경우, 유닛(22)의 보다 얇은 부분(42T) 및/또는 다른 부분들은 조정가능한 가요성을 갖는 컴포넌트들로 형성될 수 있다. 조정가능한 가요성을 갖는 예시적인 컴포넌트가 도 33에 도시되어 있다. 도 33에 도시된 바와 같이, 컴포넌트(80)(예를 들어, 전기적으로 조정가능한 가요성을 갖는 층)는 전극들(84)이 사이사이에 삽입된 전기활성 중합체의 다수의 층들(82)을 가질 수 있다. 전극들(84)에 작은 신호가 인가되거나 어떠한 신호도 인가되지 않는 경우, 층들(82)은 서로에 대해 미끄러질 수 있고 컴포넌트(80)는 휘어질 수 있다. 보다 큰 신호가 전극(84)에 인가되는 경우, 층들(82)은 제 위치에 로킹될 것이고, 컴포넌트(80)는 가요성이 아닐 것이다. 컴포넌트(80)는 도 32의 유닛(22)의 부분(42T)에 위치될 수 있다. 아무런 전압도 인가되지 않는 경우, 부분(42T)이 절곡되어, 유닛(22)이 사용자의 손가락 위에 배치되게 할 수 있다. 유닛(22)을 사용자의 손가락 상에 배치한 후에, 유닛(22)은 제어 신호를 전극들(84)에 인가함으로써 손가락 상의 제위치에 로킹될 수 있다.
일 실시예에 따르면, 사용자의 손가락 - 손가락은 하나의 표면 상의 손톱 및 반대편 표면 상의 핑거 패드를 갖는 손끝을 가짐 - 상에 착용되도록 구성되는 핑거 장착형 디바이스가 제공되며, 이는 그 손끝의 손톱을 덮고 그 손끝의 핑거 패드를 노출된 상태로 유지하면서 손끝에 결합되도록 구성되는 본체, 본체에 결합되는 햅틱 출력 디바이스, 및 햅틱 출력 디바이스를 사용하여 사용자의 손가락에 햅틱 출력을 제공하도록 구성되는 제어 회로를 포함한다.
다른 실시예에 따르면, 제어 회로는 가속도계를 이용해 손가락 탭 입력을 수집하도록 구성된다.
다른 실시예에 따르면, 핑거 장착형 디바이스는 힘 센서를 포함하고, 제어 회로는 손가락 탭 정보 및 손가락을 이용해 표면에 인가된 손가락 압력과 연관된 힘 센서로부터의 힘 정보를 무선 송신하도록 구성되는 무선 통신 회로를 포함한다.
다른 실시예에 따르면, 핑거 장착형 디바이스는 본체에 결합되는 광학 센서를 포함한다.
다른 실시예에 따르면, 핑거 장착형 디바이스는 본체에 결합되는 발광 다이오드를 포함한다.
다른 실시예에 따르면, 본체는 서로에 대해 이동하도록 구성되는 제1 본체 부분 및 제2 본체 부분을 포함하고, 핑거 장착형 디바이스는 제1 본체 부분 및 제2 본체 부분을 함께 끌어당기도록 구성되는, 제1 본체 부분 및 제2 본체 부분 사이에 결합되는 편향 구조체를 포함한다.
다른 실시예에 따르면, 본체는 중합체로 코팅된 변형가능한 금속 층을 포함한다.
다른 실시예에 따르면, 본체는 서로에 대해 이동하도록 구성되는 제1 본체 부분 및 제2 본체 부분을 포함하고, 제1 본체 부분 및 제2 본체 부분을 함께 결합시키는 자기 부분들을 포함한다.
다른 실시예에 따르면, 핑거 장착형 디바이스는 본체의 내부 표면 상의 압축성 층을 포함한다.
다른 실시예에 따르면, 핑거 장착형 디바이스는 본체에 결합되는 힘 센서를 포함하고, 제어 회로는 손가락에 의해 인가된 압력과 연관된 힘 측정치들을 힘 센서를 이용해 수집하도록 구성된다.
다른 실시예에 따르면, 제어 회로는 힘 측정치들에 기초하여 햅틱 출력을 제공하도록 구성된다.
다른 실시예에 따르면, 본체는 측벽 부분들 및 측벽 부분들을 서로 결합시키는 부분을 가지고, 힘 센서는 측벽 부분들 중 하나에 장착되고, 햅틱 출력 디바이스는 측벽 부분들 중 하나에 장착된다.
다른 실시예에 따르면, 힘 센서는 압전 힘 센서를 포함한다.
다른 실시예에서, 힘 센서는 용량성 힘 센서를 포함한다.
다른 실시예에 따르면, 햅틱 출력 디바이스는 압전 햅틱 출력 디바이스를 포함한다.
다른 실시예에 따르면, 햅틱 출력 디바이스는 제어 회로에 대한 힘 센서 입력을 수집하도록 구성된다.
다른 실시예에 따르면, 핑거 장착형 전자 디바이스는 힘 센서 및 가속도계를 포함하고, 제어 회로는 힘 센서 및 가속도계 중 선택된 하나로부터 출력의 검출에 응답하여 1 내지 300 ㎐의 주파수의 펄스들로 햅틱 출력 디바이스를 구동하도록 구성된다.
다른 실시예에 따르면, 햅틱 출력 디바이스는 힘 센서 측정치들을 제어 회로에 제공하도록 구성된다.
다른 실시예에 따르면, 햅틱 출력은 가상 현실 햅틱 출력 및 증강 현실 햅틱 출력으로 이루어진 군으로부터 선택되는 햅틱 출력을 포함한다.
일 실시예에 따르면, 힘 센서, 햅틱 출력 디바이스, 가속도계, 지지 구조체 - 지지 구조체는 힘 센서, 햅틱 출력 디바이스, 및 가속도계에 결합됨 -를 갖는 손끝 유닛, 및 힘 센서와 가속도계로부터 정보를 수집하도록 구성되고 햅틱 출력 디바이스에 구동 신호들을 제공하도록 구성되는 제어 회로를 포함하는 핑거 장착형 디바이스가 제공된다.
다른 실시예에 따르면, 제어 회로는 무선 회로를 포함하고, 무선 회로를 이용해 제어 회로는 힘 센서 및 가속도계로부터의 정보를 무선 송신한다.
다른 실시예에 따르면, 지지 구조체는 손끝의 핑거 패드 부분을 노출된 상태로 유지하면서 사용자의 손끝에 결합되도록 구성되는 U자형의 단면 프로파일을 갖는다.
일 실시예에 따르면, 제3 부분에 의해 결합되는 측벽들을 형성하는 제1 부분 및 제2 부분을 갖는 U자형의 단면 프로파일을 갖는 핑거 장착형 지지 구조체, 제1 부분 상에 위치되는 힘 센서, 제3 부분 상에 위치되는 가속도계, 및 핑거 장착형 지지 구조체에 결합되는 햅틱 출력 디바이스를 포함하는 장치가 제공된다.
다른 실시예에 따르면, 핑거 장착형 지지 구조체는 제1 부분과 제2 부분 사이의 이격 거리를 조정하기 위해 변형되도록 구성되는 변형가능한 금속 층을 갖는다.
다른 실시예에 따르면, 제3 부분은 제1 부분과 제2 부분 사이의 이격 거리를 조정하기 위해 서로에 대해 슬라이딩하는 부분들을 갖는다.
다른 실시예에 따르면, 제3 부분은 전기적으로 조정가능한 가요성을 갖는 컴포넌트를 포함한다.
다른 실시예에 따르면, 장치는 핑거 장착형 지지 구조체의 이동들을 추적하고 시각적 요소들을 디스플레이하도록 구성되는, 카메라를 갖는 전자 디바이스를 포함한다.
다른 실시예에 따르면, 전자 디바이스는 시각적 요소들을 디스플레이하는 디스플레이를 갖는 헤드 장착형 디바이스를 포함하고, 헤드 장착형 디바이스는 디스플레이된 시각적 요소들을 가속도계로부터의 정보에 기초하여 디스플레이 상에서 이동시키도록 구성된다.
다른 실시예에 따르면, 전자 디바이스는 시각적 요소들을 디스플레이하는 디스플레이를 갖는 헤드 장착형 디바이스를 포함하고, 헤드 장착형 디바이스는 햅틱 출력 디바이스를 이용해 햅틱 출력을 피드백으로서 제공하면서, 디스플레이된 시각적 요소들을 힘 센서로부터의 정보에 기초하여 디스플레이 상에서 이동시키도록 구성된다.
다른 실시예에 따르면, 장치는 카메라를 사용하여 추적되는 시각적 마커를 포함한다.
다른 실시예에 따르면, 시각적 마커는 핑거 장착형 지지 구조체 상의 적외선 발광 다이오드를 포함한다.
전술한 것은 단지 예시일 뿐이며, 설명된 실시예들에 대해 다양한 수정들이 이루어질 수 있다. 전술한 실시예들은 개별적으로 또는 임의의 조합으로 구현될 수 있다.

Claims (20)

  1. 사용자의 손가락 상에 착용되도록 구성되는 핑거 디바이스로서 - 상기 손가락은 핑거 패드를 가짐 -,
    상기 손가락에 결합되도록 구성되는 본체 - 상기 본체는 제1 및 제2 측면 본체 부분들을 가지며, 상기 제1 및 제2 측면 본체 부분들은 서로에 대해 이동 가능하고, 상기 핑거 패드를 노출된 상태로 유지하면서 상기 손가락의 제1 및 제2 대향 측면들을 따라 각각 연장됨 -;
    상기 제1 측면 본체 부분 내의 센서 - 상기 센서는 복수의 컴포넌트를 포함하고, 상기 복수의 컴포넌트 각각은 상기 손가락의 제1 측면을 따르는 손가락 압축의 상이한 양들에 기초하여 별개의 각각의 센서 측정치를 생성함 - ; 및
    상기 센서로부터의 센서 데이터에 기초하여 그리고 가상 현실 디스플레이 콘텐츠와의 상호작용들에 기초하여 상기 손가락에 햅틱 출력을 제공하도록 구성되는 햅틱 출력 장치
    를 포함하는 핑거 디바이스.
  2. 제1항에 있어서, 상기 센서는 힘 센서를 포함하는 핑거 디바이스.
  3. 제2항에 있어서, 상기 힘 센서는 상기 핑거 패드가 외부 표면을 가로질러 움직일 때 전단력을 측정하도록 구성되는 핑거 디바이스.
  4. 제2항에 있어서, 상기 힘 센서는 외부 표면 상의 손가락 누르기들(finger presses)을 검출하도록 구성되는 핑거 디바이스.
  5. 제2항에 있어서, 상기 복수의 컴포넌트는 상기 제1 측면 본체 부분 내의 복수의 힘 센서들을 포함하고, 상기 별개의 각각의 센서 측정치들은 상기 손가락의 제1 측면을 따라 개별 힘 측정치들을 포함하는 핑거 디바이스.
  6. 제1항에 있어서, 상기 햅틱 출력은 상기 손가락 상의 버튼 클릭 감각을 모방하도록 구성되는 핑거 디바이스.
  7. 제1항에 있어서, 상기 센서는 가속도계를 포함하는 핑거 디바이스.
  8. 제1항에 있어서, 손가락 제스처 입력을 수집하는 모션 센서를 더 포함하는 핑거 디바이스.
  9. 제8항에 있어서, 상기 손가락 제스처 입력은 3차원 에어 제스처들을 포함하는 핑거 디바이스.
  10. 제1항에 있어서, 상기 제1 및 제2 측면 본체 부분들은 서로를 향해 편향되는 핑거 디바이스.
  11. 시스템으로서,
    디스플레이를 가지며 사용자의 머리에 결합되도록 구성되는 헤드 장착형 디바이스; 및
    상기 사용자의 손가락에 결합되도록 구성되는 핑거 디바이스
    를 포함하고,
    상기 핑거 디바이스는,
    제1 및 제2 부분들 - 상기 제1 및 제2 부분들은 서로에 대해 이동가능하고, 상기 손가락의 핑거 패드를 노출된 상태로 유지하면서 상기 손가락의 제1 및 제2 대향 측면들을 따라 각각 연장됨 -;
    복수의 컴포넌트를 갖는 힘 센서 - 상기 복수의 컴포넌트 각각은 상기 손가락의 제1 측면을 따르는 손가락 압축의 상이한 양들에 기초하여 별개의 각각의 힘 센서 측정치를 생성함 -; 및
    상기 힘 센서로 수집되는 힘 측정치들과 상기 디스플레이 상의 디스플레이 콘텐츠에 기초하여 상기 손가락에 햅틱 출력을 제공하는 햅틱 출력 장치
    를 포함하는 시스템.
  12. 제11항에 있어서, 상기 헤드 장착형 디바이스는 상기 핑거 디바이스의 움직임들을 추적하는 카메라를 포함하는 시스템.
  13. 제12항에 있어서, 상기 헤드 장착형 디바이스는 상기 카메라에 의해 추적되는 상기 핑거 디바이스의 움직임들에 적어도 부분적으로 기초하여 상기 디스플레이 콘텐츠를 조정하도록 구성되는 시스템.
  14. 제11항에 있어서, 상기 핑거 디바이스는 상기 핑거 디바이스의 움직임들을 추적하는 가속도계를 포함하는 시스템.
  15. 제14항에 있어서, 상기 헤드 장착형 디바이스는 상기 가속도계에 의해 추적되는 상기 핑거 디바이스의 움직임들에 적어도 부분적으로 기초하여 상기 디스플레이 콘텐츠를 조정하도록 구성되는 시스템.
  16. 사용자의 손가락에 결합되도록 구성되는 핑거 디바이스로서,
    제1 및 제2 측면 하우징 부분들을 갖는 U-형상 하우징 - 상기 제1 및 제2 측면 하우징 부분들은 서로에 대해 이동가능하고, 상기 손가락의 핑거 패드를 노출된 상태로 유지하면서 상기 손가락의 제1 및 제2 대향 측면들을 따라 각각 연장됨 -;
    외부 표면 상의 손가락 제스처들을 검출하는 상기 제1 측면 하우징 부분 내의 센서 - 상기 센서는 복수의 컴포넌트를 포함하고, 상기 복수의 컴포넌트 각각은 상기 손가락의 제1 측면을 따르는 손가락 압축의 상이한 양들에 기초하여 별개의 각각의 센서 측정치를 생성함 - ; 및
    상기 손가락 제스처들에 응답하여 상기 손가락에 햅틱 출력을 제공하는 햅틱 출력 장치
    를 포함하고,
    상기 햅틱 출력은 외부 디스플레이상의 시각적 피드백과 동기화되는 핑거 디바이스.
  17. 제16항에 있어서, 상기 손가락 제스처들은 손가락 탭들을 포함하는 핑거 디바이스.
  18. 제16항에 있어서, 상기 손가락 제스처들은 드래그 앤 드롭 제스처들을 포함하는 핑거 디바이스.
  19. 제16항에 있어서, 상기 햅틱 출력은 버튼 클릭 감각을 포함하는 핑거 디바이스.
  20. 제16항에 있어서, 상기 복수의 컴포넌트는 상기 손가락의 제1 측면을 따르는 힘 센서들의 어레이를 포함하는 핑거 디바이스.
KR1020227003079A 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스 KR102536546B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020237017208A KR20230074849A (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201762526792P 2017-06-29 2017-06-29
US62/526,792 2017-06-29
KR1020197005563A KR102357972B1 (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
US16/015,043 US10838499B2 (en) 2017-06-29 2018-06-21 Finger-mounted device with sensors and haptics
US16/015,043 2018-06-21
PCT/US2018/038845 WO2019005586A1 (en) 2017-06-29 2018-06-21 FINGER-FITTED DEVICE WITH SENSORS AND HAPTIC TECHNOLOGY

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020197005563A Division KR102357972B1 (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020237017208A Division KR20230074849A (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스

Publications (2)

Publication Number Publication Date
KR20220018094A KR20220018094A (ko) 2022-02-14
KR102536546B1 true KR102536546B1 (ko) 2023-05-30

Family

ID=64738080

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020237017208A KR20230074849A (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
KR1020197005563A KR102357972B1 (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
KR1020227003079A KR102536546B1 (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020237017208A KR20230074849A (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
KR1020197005563A KR102357972B1 (ko) 2017-06-29 2018-06-21 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스

Country Status (7)

Country Link
US (3) US10838499B2 (ko)
EP (1) EP3485355A1 (ko)
JP (3) JP7086940B2 (ko)
KR (3) KR20230074849A (ko)
CN (3) CN114578964A (ko)
TW (1) TWI706313B (ko)
WO (1) WO2019005586A1 (ko)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230074849A (ko) 2017-06-29 2023-05-31 애플 인크. 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
US11010179B2 (en) 2018-04-20 2021-05-18 Facebook, Inc. Aggregating semantic information for improved understanding of users
US11360558B2 (en) 2018-07-17 2022-06-14 Apple Inc. Computer systems with finger devices
JP7124616B2 (ja) * 2018-10-03 2022-08-24 コニカミノルタ株式会社 誘導装置、制御システム、および制御プログラム
US20220031414A1 (en) * 2018-10-12 2022-02-03 Sony Corporation Medical system, method and computer program
JP7271245B2 (ja) * 2019-03-18 2023-05-11 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス
WO2020251565A1 (en) * 2019-06-12 2020-12-17 Hewlett-Packard Development Company, L.P. Finger clip biometric virtual reality controllers
US11422638B2 (en) 2019-07-08 2022-08-23 Apple Inc. Input devices that use self-mixing interferometry to determine movement within an enclosure
US11163340B2 (en) 2019-07-09 2021-11-02 Apple Inc. Electronic devices with fiber composite friction hinges
GB201912546D0 (en) * 2019-08-31 2019-10-16 Tada Ryo Method and apparatus for wearable remote commuincation device
US11409365B2 (en) 2019-09-06 2022-08-09 Apple Inc. Self-mixing interferometry-based gesture input system including a wearable or handheld device
US20210089131A1 (en) * 2019-09-23 2021-03-25 Apple Inc. Finger-Mounted Input Devices
US11740742B2 (en) * 2019-09-23 2023-08-29 Apple Inc. Electronic devices with finger sensors
US11419546B2 (en) 2019-09-24 2022-08-23 Apple Inc. Wearable self-mixing interferometry device used to sense physiological conditions
US11893164B2 (en) * 2019-10-18 2024-02-06 Trustees Of Dartmouth College Methods and systems for eyes-free text entry
CN111309145B (zh) * 2020-02-05 2021-03-23 吉林大学 一种基于生理物理建模的静电力触觉渲染方法
US20230350491A1 (en) * 2020-03-13 2023-11-02 Sony Group Corporation Information processing device, information processing method, and information processing program
US11360587B1 (en) 2020-04-07 2022-06-14 Apple Inc. Deployment systems for computer system finger devices
US11502713B2 (en) 2020-09-16 2022-11-15 Genki Instruments ehf. Smart ring
WO2022061263A1 (en) * 2020-09-21 2022-03-24 Daedalus Labs Llc Systems having peripherals with magnetic field tracking
US11301041B1 (en) 2020-09-30 2022-04-12 International Business Machines Corporation Hand tremor accessible using augmented reality user interface
JP7364097B2 (ja) 2020-11-06 2023-10-18 日本電信電話株式会社 力制御支援装置、力制御支援方法、及びプログラム
CN114779930A (zh) * 2021-04-14 2022-07-22 三峡大学 基于一对多支持向量机的vr用户触觉体验的情绪识别方法
CN113268385B (zh) * 2021-05-21 2023-05-12 中国船舶工业综合技术经济研究院 基于视触觉的多指按压力相位协同能力测量系统及方法
IT202100016157A1 (it) * 2021-06-21 2022-12-21 Univ Del Salento Sistema aptico indossabile
JPWO2023286316A1 (ko) * 2021-07-14 2023-01-19
US11452354B1 (en) * 2021-08-28 2022-09-27 Marta Magnusson Electronic fingernail display
TWI802441B (zh) * 2022-06-14 2023-05-11 宏達國際電子股份有限公司 手持控制器
WO2024042502A1 (en) 2022-08-26 2024-02-29 Genki Instrument Ehf. Improved smart ring
TWI821062B (zh) * 2022-12-05 2023-11-01 和碩聯合科技股份有限公司 控制裝置及電子裝置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090096746A1 (en) * 2007-10-12 2009-04-16 Immersion Corp., A Delaware Corporation Method and Apparatus for Wearable Remote Interface Device
JP2009104428A (ja) * 2007-10-24 2009-05-14 Nikon Corp ヘッドマウントディスプレイ装置及び携帯装置
JP2013003782A (ja) * 2011-06-15 2013-01-07 Shiseido Co Ltd 動作検出センサ

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5631861A (en) 1990-02-02 1997-05-20 Virtual Technologies, Inc. Force feedback and texture simulating interface device
US5581484A (en) 1994-06-27 1996-12-03 Prince; Kevin R. Finger mounted computer input device
AU1328597A (en) * 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6388247B2 (en) 1998-02-20 2002-05-14 Massachusetts Institute Of Technology Fingernail sensors for measuring finger forces and finger posture
JP2001104256A (ja) * 1999-10-04 2001-04-17 Toriumu Kk 指先接触圧センサー
US20030214481A1 (en) 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use
JP4085691B2 (ja) * 2002-05-17 2008-05-14 セイコーエプソン株式会社 画像処理装置
US7042438B2 (en) 2003-09-06 2006-05-09 Mcrae Michael William Hand manipulated data apparatus for computers and video games
KR100682901B1 (ko) 2004-11-17 2007-02-15 삼성전자주식회사 화상표시장치에서 전기활성폴리머를 사용하여 영상정보의핑거팁 햅틱을 제공하는 장치 및 방법
ITPI20040084A1 (it) 2004-11-18 2005-02-18 Massimo Bergamasco Interfaccia aptica portabile
JP4029410B2 (ja) * 2006-05-05 2008-01-09 治幸 岩田 指先装着センサによる入力装置
US20090278798A1 (en) 2006-07-26 2009-11-12 The Research Foundation Of The State University Of New York Active Fingertip-Mounted Object Digitizer
GB2442973A (en) 2006-10-20 2008-04-23 Kevin Moonie Finger worn computer mouse with an optical sensor on a pivoting arm
JP5108485B2 (ja) 2006-12-12 2012-12-26 トヨタ自動車株式会社 触覚に作用する方法およびそれを実現する触覚デバイス、屈曲可変機構
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
WO2009024971A2 (en) * 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
US20090153477A1 (en) 2007-12-12 2009-06-18 Saenz Valentin L Computer mouse glove
US20150205417A1 (en) * 2008-01-04 2015-07-23 Tactus Technology, Inc. Dynamic tactile interface
US8032730B2 (en) 2008-05-15 2011-10-04 Hitachi, Ltd. Method and apparatus for I/O priority control in storage systems
JP2012503244A (ja) 2008-09-20 2012-02-02 リングボー,エルティーディー. 指に装着される装置および相互作用方法および通信方法
US8610548B1 (en) 2009-02-03 2013-12-17 University Of Utah Research Foundation Compact shear tactile feedback device and related methods
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
KR20130101975A (ko) 2010-04-16 2013-09-16 니콜라스 제이 마스탄드리아 착용형 모션 감지 컴퓨팅 인터페이스
FR2962566B1 (fr) 2010-07-06 2013-05-17 Commissariat Energie Atomique Systeme de simulation d'un contact avec une surface par stimulation tactile
US8724861B1 (en) 2010-12-06 2014-05-13 University Of South Florida Fingertip force, location, and orientation sensor
US20120249419A1 (en) 2011-03-30 2012-10-04 Bronner Sr Dennis M Thumb mountable cursor control and input device
US9104271B1 (en) 2011-06-03 2015-08-11 Richard Adams Gloved human-machine interface
WO2012176610A1 (ja) 2011-06-22 2012-12-27 株式会社村田製作所 指刺激呈示装置
JP5624530B2 (ja) 2011-09-29 2014-11-12 株式会社東芝 コマンド発行装置、方法及びプログラム
KR101320176B1 (ko) * 2011-12-26 2013-10-23 삼성전기주식회사 햅틱 피드백 디바이스
JP2015521303A (ja) * 2012-03-30 2015-07-27 ザ ボード オブ トラスティーズ オブ ザ ユニヴァーシ 表面への形状適合可能な付属物装着可能電子デバイス
US9317123B2 (en) 2012-06-13 2016-04-19 University Of Utah Research Foundation Skin stretch feedback devices, systems, and methods
US9968297B2 (en) * 2012-06-14 2018-05-15 Medibotics Llc EEG glasses (electroencephalographic eyewear)
US9891718B2 (en) * 2015-04-22 2018-02-13 Medibotics Llc Devices for measuring finger motion and recognizing hand gestures
KR20140016122A (ko) 2012-06-22 2014-02-07 한국전자통신연구원 손가락 착용형 데이터 송수신 장치
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
JP6114562B2 (ja) 2013-01-22 2017-04-12 株式会社 資生堂 動作検出センサ及び動作検出装置
JP6251957B2 (ja) * 2013-01-23 2017-12-27 セイコーエプソン株式会社 表示装置、頭部装着型表示装置および表示装置の制御方法
CN105473021B (zh) 2013-03-15 2018-01-19 智能专利有限责任公司 可穿戴设备及相关系统
US9092954B2 (en) 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US9729730B2 (en) 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
WO2015070343A1 (en) 2013-11-13 2015-05-21 The University Of Western Ontario Finger segment tracker and digitizer
CN114089813A (zh) 2013-11-29 2022-02-25 普罗克西有限公司 穿戴式计算装置
US20160295989A1 (en) * 2014-01-09 2016-10-13 Q-Tee Product Design, Llc Artificial nails with displays
WO2015153803A1 (en) 2014-04-01 2015-10-08 Apple Inc. Devices and methods for a ring computing device
JP2015219887A (ja) * 2014-05-21 2015-12-07 日本メクトロン株式会社 電気触覚提示装置
US9711060B1 (en) * 2014-07-14 2017-07-18 Senstream, Inc. Biometric sensor ring for continuous wear mobile data applications
KR20160015050A (ko) 2014-07-30 2016-02-12 엘지전자 주식회사 반지형 이동 단말기
US20160058133A1 (en) * 2014-08-28 2016-03-03 Joseph Fournier Analog watch with digital wearable system
JP6524661B2 (ja) 2014-12-19 2019-06-05 富士通株式会社 入力支援方法、入力支援プログラムおよび入力支援装置
US9851805B2 (en) 2014-12-24 2017-12-26 Immersion Corporation Systems and methods for haptically-enabled holders
US10082872B2 (en) * 2014-12-30 2018-09-25 Immersion Corporation Deformable haptic wearables with variable physical properties
US9746921B2 (en) * 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
AU2016243633A1 (en) * 2015-03-31 2017-10-12 Marcio Marc Abreu Wearable devices configured to support measurement and transmission apparatus
US10317940B2 (en) * 2015-04-29 2019-06-11 Lg Electronics Inc. Wearable smart device and control method therefor
US9645647B2 (en) 2015-05-13 2017-05-09 Immersion Corporation Systems and methods for haptic feedback for modular devices
US9763505B2 (en) * 2015-06-11 2017-09-19 Kelly W. Cunningham Holder and method for holding a personal computing device
US10042438B2 (en) 2015-06-30 2018-08-07 Sharp Laboratories Of America, Inc. Systems and methods for text entry
US10289239B2 (en) * 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
US20170045948A1 (en) 2015-08-12 2017-02-16 Fin Robotics, Inc. Controlling target devices
US11188143B2 (en) * 2016-01-04 2021-11-30 Microsoft Technology Licensing, Llc Three-dimensional object tracking to augment display area
US10579216B2 (en) * 2016-03-28 2020-03-03 Microsoft Technology Licensing, Llc Applications for multi-touch input detection
US10852835B2 (en) * 2016-04-15 2020-12-01 Board Of Regents, The University Of Texas System Systems, apparatuses and methods for controlling prosthetic devices by gestures and other modalities
US10347144B2 (en) * 2016-05-16 2019-07-09 Edward Subiakto Fix-smart wearable learning device with adjustable finger ring
DK179657B1 (en) * 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DE102016111634B4 (de) * 2016-06-24 2019-04-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zum Erzeugen eines taktilen Reizes
US10335045B2 (en) * 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
US20180286189A1 (en) * 2017-03-31 2018-10-04 Immersion Corporation Multi-stable haptic feedback systems
KR20230074849A (ko) * 2017-06-29 2023-05-31 애플 인크. 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
US10115274B1 (en) * 2017-12-07 2018-10-30 Immersion Corporation Systems, devices and methods for wirelessly delivering haptic effects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090096746A1 (en) * 2007-10-12 2009-04-16 Immersion Corp., A Delaware Corporation Method and Apparatus for Wearable Remote Interface Device
JP2009104428A (ja) * 2007-10-24 2009-05-14 Nikon Corp ヘッドマウントディスプレイ装置及び携帯装置
JP2013003782A (ja) * 2011-06-15 2013-01-07 Shiseido Co Ltd 動作検出センサ

Also Published As

Publication number Publication date
US10838499B2 (en) 2020-11-17
JP2023052259A (ja) 2023-04-11
KR20190033587A (ko) 2019-03-29
JP7464762B2 (ja) 2024-04-09
KR20230074849A (ko) 2023-05-31
CN208861246U (zh) 2019-05-14
KR20220018094A (ko) 2022-02-14
US11914780B2 (en) 2024-02-27
KR102357972B1 (ko) 2022-02-04
US11416076B2 (en) 2022-08-16
US20210055799A1 (en) 2021-02-25
TWI706313B (zh) 2020-10-01
JP2019526864A (ja) 2019-09-19
TW201905672A (zh) 2019-02-01
CN114578964A (zh) 2022-06-03
CN109690455A (zh) 2019-04-26
US20190004604A1 (en) 2019-01-03
US20220382376A1 (en) 2022-12-01
EP3485355A1 (en) 2019-05-22
WO2019005586A1 (en) 2019-01-03
CN109690455B (zh) 2022-03-11
JP7086940B2 (ja) 2022-06-20
JP7265567B2 (ja) 2023-04-26
JP2021093174A (ja) 2021-06-17

Similar Documents

Publication Publication Date Title
KR102536546B1 (ko) 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
CN210573659U (zh) 计算机系统、头戴式设备、手指设备和电子设备
US9983676B2 (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
US20190346938A1 (en) Finger-Mounted Device with Fabric
EP3418863A1 (en) Haptic dimensions in a variable gaze orientation virtual environment
KR102604259B1 (ko) 정전용량식 장갑형 입력장치
US11474603B2 (en) Extended reality grasp controller
JP2020109622A (ja) 可変曲率インタラクティブ装置

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant