RU2016134720A - Способ, аппаратура и устройство обработки информации - Google Patents

Способ, аппаратура и устройство обработки информации Download PDF

Info

Publication number
RU2016134720A
RU2016134720A RU2016134720A RU2016134720A RU2016134720A RU 2016134720 A RU2016134720 A RU 2016134720A RU 2016134720 A RU2016134720 A RU 2016134720A RU 2016134720 A RU2016134720 A RU 2016134720A RU 2016134720 A RU2016134720 A RU 2016134720A
Authority
RU
Russia
Prior art keywords
information
gesture
input mode
user
mode
Prior art date
Application number
RU2016134720A
Other languages
English (en)
Other versions
RU2662408C2 (ru
RU2016134720A3 (ru
Inventor
Лэй ЧЭНЬ
Original Assignee
Хуавей Дивайс (Дунгуань) Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Хуавей Дивайс (Дунгуань) Ко., Лтд. filed Critical Хуавей Дивайс (Дунгуань) Ко., Лтд.
Publication of RU2016134720A3 publication Critical patent/RU2016134720A3/ru
Publication of RU2016134720A publication Critical patent/RU2016134720A/ru
Application granted granted Critical
Publication of RU2662408C2 publication Critical patent/RU2662408C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Claims (53)

1. Способ обработки информации, содержащий этапы, на которых:
получают информацию об активирующем режим жесте пользователя;
активируют режим ввода, соответствующий информации об активирующем режим жесте, при этом режим ввода содержит режим ввода клавиатурой и режим ввода мышью;
получают информацию о жесте пользователя в режиме ввода, при этом информация о жесте содержит информацию о жесте касания и/или информацию о жесте скольжения; и
генерируют, в соответствии с предварительно заданным соответствием между информацией о жесте и инструкцией операции, инструкцию операции, соответствующую информации о жесте.
2. Способ обработки информации по п. 1, в котором, когда режим ввода является режимом ввода клавиатурой, имеется взаимно-однозначное соответствие между 12 суставами или фалангами указательного пальца, среднего пальца, безымянного пальца и мизинца пользователя и 12 клавишами 12-клавишной клавиатуры;
этап, на котором получают информацию о жесте пользователя в режиме ввода, содержит этап, на котором: получают, в режиме ввода клавиатурой, информацию о жесте касания любого сустава или фаланги указательного пальца, среднего пальца, безымянного пальца и мизинца пользователем; и
соответственно, этап, на котором генерируют, в соответствии с предварительно заданным соответствием между информацией о жесте и инструкцией операции, инструкцию операции, соответствующую информации о жесте, содержит этап, на котором:
генерируют, в соответствии с предварительно заданным соответствием между информацией о жесте касания и инструкцией операции, инструкцию операции, соответствующую информации о жесте касания.
3. Способ обработки информации по п. 1, в котором, когда режим ввода является режимом ввода мышью, этап, на котором получают информацию о жесте пользователя в режиме ввода, содержит этап, на котором:
получают, в режиме ввода мышью, информацию о жесте скольжения относительно скольжения на указательном пальце, среднем пальце, безымянном пальце и мизинце пользователя и/или информацию о жесте касания относительно касания сустава пальца или фаланги пальца; и
соответственно, этап, на котором генерируют, в соответствии с предварительно заданным соответствием между информацией о жесте и инструкцией операции, инструкцию операции, соответствующую информации о жесте, содержит этап, на котором:
генерируют, в соответствии с предварительно заданным соответствием между информацией о жесте скольжения и/или информацией о жесте касания и инструкцией операции, инструкцию операции, соответствующую информации о жесте скольжения и/или информации о жесте касания.
4. Способ обработки информации по п. 3, в котором информация о жесте скольжения соответствует информации пути движения указателя мыши, а информация о жесте касания соответствует информации об активации левой или правой кнопки мыши.
5. Способ обработки информации по п. 1, в котором этап, на котором активируют режим ввода, соответствующий информации об активирующем режим жесте, содержит этапы, на которых:
активируют режим ввода клавиатурой, когда информация об активирующем режим жесте соответствует жесту разгибания указательного пальца, среднего пальца, безымянного пальца и мизинца пользователя; и
активируют режим ввода мышью, когда информация об активирующем режим жесте соответствует жесту сгибания указательного пальца, среднего пальца, безымянного пальца и мизинца к ладони пользователя.
6. Способ обработки информации по п. 1, в котором информация об активирующем режим жесте или информация о жесте обнаруживаются датчиком, расположенным на запястье или ладони пользователя.
7. Способ обработки информации по п. 6, в котором этап, на котором получают информацию об активирующем режим жесте пользователя, или этап, на котором получают информацию о жесте пользователя в режиме ввода, содержат этапы, на которых:
получают значения давления на каждой части запястья или ладони, когда датчик, расположенный на запястье или ладони пользователя, обнаруживает активирующее режим ввода жестовое движение или жестовое движение пользователя;
определяют значения смещения датчика на запястье или ладони пользователя в соответствии со значением давления; и
определяют, в соответствии со значением смещения, информацию об активирующем режим жесте, введенную пользователем.
8. Аппаратура обработки информации, содержащая:
первый модуль получения, выполненный с возможностью получения информации об активирующем режим жесте пользователя;
модуль активации режима, выполненный с возможностью активации режима ввода, соответствующего информации об активирующем режим жесте, при этом режим ввода содержит режим ввода клавиатурой и режим ввода мышью;
второй модуль получения, выполненный с возможностью получения информации о жесте пользователя в режиме ввода, при этом информация о жесте содержит информацию о жесте касания и/или информацию о жесте скольжения; и
модуль генерации инструкции, выполненный с возможностью генерации, в соответствии с предварительно заданным соответствием между информацией о жесте и инструкцией операции, инструкции операции, соответствующей информации о жесте.
9. Аппаратура обработки информации по п. 8, в которой, когда режим ввода является режимом ввода клавиатурой, имеется взаимно-однозначное соответствие между 12 суставами или фалангами указательного пальца, среднего пальца, безымянного пальца и мизинца пользователя и 12 клавишами 12-клавишной клавиатуры; причем второй модуль получения в частности выполнен с возможностью:
получения, в режиме ввода клавиатурой, информации о жесте касания относительно касания любого сустава или фаланги указательного пальца, среднего пальца, безымянного пальца и мизинца пользователем.
10. Аппаратура обработки информации по п. 8, в которой, когда режим ввода является режимом ввода мышью, второй модуль получения в частности выполнен с возможностью:
получения, в режиме ввода мышью, информации о жесте скольжения относительно скольжения на указательном пальце, среднем пальце, безымянном пальце и мизинце пользователя и/или информации о жесте касания относительно касания сустава пальца или фаланги пальца.
11. Аппаратура обработки информации по п. 10, в которой информация о жесте скольжения соответствует информации пути движения указателя мыши, а информация о жесте касания соответствует информации об активации левой или правой кнопки мыши.
12. Аппаратура обработки информации по п. 8, в которой модуль активации режима содержит:
первый модуль активации режима, выполненный с возможностью активации режима ввода клавиатурой, когда информация об активирующем режим жесте соответствует жесту разгибания указательного пальца, среднего пальца, безымянного пальца и мизинца пользователя; и
второй модуль активации режима, выполненный с возможностью активации режима ввода мышью, когда информация об активирующем режим жесте соответствует жесту сгибания указательного пальца, среднего пальца, безымянного пальца и мизинца к ладони пользователя.
13. Аппаратура обработки информации по п. 8, в которой информация об активирующем режим жесте или информация о жесте обнаруживаются датчиком, расположенным на запястье или ладони пользователя.
14. Аппаратура обработки информации по п. 13, в которой первый модуль получения или второй модуль получения содержат:
подмодуль получения, выполненный с возможностью получения значения давления для каждой части запястья или ладони, когда датчик, расположенный на запястье или ладони пользователя, обнаруживает активирующее режим ввода жестовое движение или жестовое движение пользователя;
модуль вычисления, выполненный с возможностью определения значения смещения датчика на запястье или ладони пользователя в соответствии со значением давления; и
модуль определения жеста, выполненный с возможностью определения, в соответствии со значением смещения, информации об активирующем режим жесте, введенной пользователем.
15. Аппаратура обработки информации, содержащая:
процессор, память, при этом процессор и память связаны друг с другом с использованием шины,
при этом процессор выполнен с возможностью выполнения следующих операций:
получения информации об активирующем режим жесте пользователя;
активирования режима ввода, соответствующего информации об активирующем режим жесте, при этом режим ввода содержит режим ввода клавиатурой и режим ввода мышью;
получения информации о жесте пользователя в режиме ввода, при этом информация о жесте содержит по меньшей мере одно из информации о жесте касания или информации о жесте скольжения; и
генерации, в соответствии с предварительно заданным соответствием между информацией о жесте и инструкцией операции, инструкции операции, соответствующей информации о жесте.
16. Компьютерно-читаемый носитель информации, на котором записана программа, при этом программа при исполнении позволяет компьютеру выполнять этапы, на которых:
получают информацию об активирующем режим жесте пользователя;
активируют режим ввода, соответствующий информации об активирующем режим жесте, при этом режим ввода содержит режим ввода клавиатурой и режим ввода мышью;
получают информацию о жесте пользователя в режиме ввода, при этом информация о жесте содержит информацию о жесте касания и/или информацию о жесте скольжения; и
генерируют, в соответствии с предварительно заданным соответствием между информацией о жесте и инструкцией операции,
инструкцию операции, соответствующую информации о жесте.
RU2016134720A 2014-01-26 2015-01-23 Способ, аппаратура и устройство обработки информации RU2662408C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410038752.7 2014-01-26
CN201410038752.7A CN103793057B (zh) 2014-01-26 2014-01-26 信息处理方法、装置及设备
PCT/CN2015/071424 WO2015110063A1 (zh) 2014-01-26 2015-01-23 信息处理方法、装置及设备

Publications (3)

Publication Number Publication Date
RU2016134720A3 RU2016134720A3 (ru) 2018-02-28
RU2016134720A true RU2016134720A (ru) 2018-02-28
RU2662408C2 RU2662408C2 (ru) 2018-07-25

Family

ID=50668815

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016134720A RU2662408C2 (ru) 2014-01-26 2015-01-23 Способ, аппаратура и устройство обработки информации

Country Status (8)

Country Link
US (1) US9965044B2 (ru)
EP (1) EP3089018B1 (ru)
JP (1) JP6249316B2 (ru)
KR (1) KR101877823B1 (ru)
CN (1) CN103793057B (ru)
BR (1) BR112016017206B1 (ru)
RU (1) RU2662408C2 (ru)
WO (1) WO2015110063A1 (ru)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103793057B (zh) 2014-01-26 2017-02-01 华为终端有限公司 信息处理方法、装置及设备
CN105373321A (zh) * 2014-08-13 2016-03-02 中兴通讯股份有限公司 移动终端功能对象的控制方法及装置、移动终端
CN105138136A (zh) * 2014-09-15 2015-12-09 北京至感传感器技术研究院有限公司 手势识别装置、手势识别方法及手势识别系统
CN105278699A (zh) * 2014-09-29 2016-01-27 北京至感传感器技术研究院有限公司 易穿戴式手势识别装置
CN105204645A (zh) * 2014-10-02 2015-12-30 北京至感传感器技术研究院有限公司 易穿戴式手势识别装置
CN104461365A (zh) * 2014-12-11 2015-03-25 三星电子(中国)研发中心 终端的触控方法和装置
CN104750253B (zh) * 2015-03-11 2018-10-12 苏州佳世达电通有限公司 一种供用户进行体感输入的电子装置
CN106073126B (zh) * 2015-04-27 2018-05-18 陈明洙 Led安全背包
US10638316B2 (en) * 2016-05-25 2020-04-28 Intel Corporation Wearable computer apparatus with same hand user authentication
CN107490370B (zh) * 2016-06-13 2020-01-10 原相科技股份有限公司 测量装置及其运作方法,轨迹感测系统及其轨迹感测方法
CN106569610A (zh) * 2016-11-09 2017-04-19 李飞洋 一种通过大拇指弯曲度检测实现电子设备输入功能的方法
CN107329574A (zh) * 2017-06-30 2017-11-07 联想(北京)有限公司 用于电子设备的输入方法和系统
CN107403178A (zh) * 2017-08-08 2017-11-28 方超 手势采集系统
CN107301415B (zh) * 2017-08-08 2024-03-22 方超 手势采集系统
EP3667564A4 (en) 2017-08-08 2021-04-07 Fang, Chao GESTURE ACQUISITION SYSTEM
CN107632716B (zh) * 2017-11-07 2024-03-08 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN208752575U (zh) * 2018-07-27 2019-04-16 深圳市志海和科技有限公司 一种键盘
CN109597598A (zh) * 2018-10-26 2019-04-09 珠海中电数码科技有限公司 一种用于智能全面屏黑板的多屏指令处理方法及其系统
US10902250B2 (en) * 2018-12-21 2021-01-26 Microsoft Technology Licensing, Llc Mode-changeable augmented reality interface
CN109859452A (zh) * 2019-03-11 2019-06-07 汕头大学 一种穿戴式控制器及使用该控制器的方法
CN109947245A (zh) * 2019-03-12 2019-06-28 合肥工业大学 用于操作腕表式设备的手指动作指令集及其生成方法
CN110209265A (zh) * 2019-04-04 2019-09-06 北京理工大学 一种基于手指触碰检测的输入系统
CN110162183B (zh) * 2019-05-30 2022-11-01 努比亚技术有限公司 凌空手势操作方法、可穿戴设备及计算机可读存储介质
CN110780732A (zh) * 2019-09-06 2020-02-11 北京理工大学 一种基于空间定位以及手指点击的输入系统
CN111897477B (zh) * 2020-08-04 2022-06-17 上海传英信息技术有限公司 移动终端的操控方法、移动终端及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7109970B1 (en) 2000-07-01 2006-09-19 Miller Stephen S Apparatus for remotely controlling computers and other electronic appliances/devices using a combination of voice commands and finger movements
US20030056278A1 (en) 2001-09-26 2003-03-27 Lung Kuo Structure of finger keyboard
CN1482527A (zh) * 2002-09-15 2004-03-17 廖华勇 手指动作录入技术及其设备
US7362305B2 (en) 2004-02-10 2008-04-22 Senseboard Technologies Ab Data input device
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
KR20060022984A (ko) 2004-09-08 2006-03-13 홍광석 키패드 글러브 장치
US20090091530A1 (en) 2006-03-10 2009-04-09 Kenji Yoshida System for input to information processing device
RU2457532C2 (ru) 2006-03-10 2012-07-27 Кенджи Йошида Система обработки ввода для устройства обработки информации
CN200944218Y (zh) * 2006-06-30 2007-09-05 山东大学 指套式数字键盘装置
US20080129694A1 (en) * 2006-11-30 2008-06-05 Liberty Reach Inc. Keyless user interface device
JP2008135033A (ja) 2007-11-26 2008-06-12 Olympus Corp 手姿勢動作検出装置
CN101226438A (zh) * 2008-01-18 2008-07-23 于非 一种手套形计算机鼠标
CN201638148U (zh) * 2009-09-10 2010-11-17 深圳市亿思达显示科技有限公司 一种手套式虚拟输入装置
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
US8421634B2 (en) 2009-12-04 2013-04-16 Microsoft Corporation Sensing mechanical energy to appropriate the body for data input
CN201780561U (zh) * 2010-07-29 2011-03-30 陈誉航 指套式鼠标
US20120242584A1 (en) 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
CA2864719C (en) * 2012-02-24 2019-09-24 Thomas J. Moscarillo Gesture recognition devices and methods
US8743052B1 (en) * 2012-11-24 2014-06-03 Eric Jeffrey Keller Computing interface system
JP2014115688A (ja) 2012-12-06 2014-06-26 Sharp Corp 文字入力システムおよび文字入力方法
CN103793057B (zh) * 2014-01-26 2017-02-01 华为终端有限公司 信息处理方法、装置及设备

Also Published As

Publication number Publication date
JP6249316B2 (ja) 2017-12-20
WO2015110063A1 (zh) 2015-07-30
US20160342217A1 (en) 2016-11-24
BR112016017206B1 (pt) 2018-08-28
KR101877823B1 (ko) 2018-07-12
RU2662408C2 (ru) 2018-07-25
RU2016134720A3 (ru) 2018-02-28
CN103793057A (zh) 2014-05-14
EP3089018A4 (en) 2017-01-18
US9965044B2 (en) 2018-05-08
EP3089018A1 (en) 2016-11-02
KR20160110992A (ko) 2016-09-23
EP3089018B1 (en) 2019-01-09
CN103793057B (zh) 2017-02-01
JP2017509957A (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
RU2016134720A (ru) Способ, аппаратура и устройство обработки информации
US10120444B2 (en) Wearable device
US20150185850A1 (en) Input detection
WO2014009561A3 (en) Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
JP2016537757A5 (ru)
TW201533608A (zh) 具有壓力觸覺感測器的手套
JP2011197782A (ja) 候補表示装置および候補表示方法
JP5965540B2 (ja) 仮想キーボード上のキー入力を認識する方法及びその装置
US20100321293A1 (en) Command generation method and computer using the same
CN103744609B (zh) 一种数据提取方法及装置
US20150091803A1 (en) Multi-touch input method for touch input device
Kim et al. Mo-Bi: Contextual mobile interfaces through bimanual posture sensing with Wrist-Worn devices
KR101521288B1 (ko) 장갑형 무선 입력 장치 및 그 동작 방법
JP2016066254A (ja) タッチ検出装置を備えた電子装置
WO2015081568A1 (en) Apparatus and method for user input
GB2497930A (en) Multi finger touch input buttons following cursor
KR20160149403A (ko) 웨어러블 데이터 입력장치 및 이를 이용한 데이터 입력방법
KR101748570B1 (ko) 웨어러블 데이터 입력장치
Meier et al. Demonstrating TapID for Rapid Touch Interaction on Surfaces in Virtual Reality for Productivity Scenarios
TW201512947A (zh) 光學觸控系統及光學觸控控制方法
US20210109597A1 (en) System and method for recognizing gestures through multi-point force distribution change map
CN105353973A (zh) 一种输入方法及设备
KR101548075B1 (ko) 착용가능한 데이터 입력장치
KR101392981B1 (ko) 가상 키보드 상의 키 입력을 인식하는 방법 및 그 장치
JP6344083B2 (ja) マルチタッチシステム、タッチ座標ペア決定方法及びタッチ座標ペア決定プログラム

Legal Events

Date Code Title Description
PD4A Correction of name of patent owner
PC41 Official registration of the transfer of exclusive right

Effective date: 20210623