RU2017100249A - Классификация касаний - Google Patents
Классификация касаний Download PDFInfo
- Publication number
- RU2017100249A RU2017100249A RU2017100249A RU2017100249A RU2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A
- Authority
- RU
- Russia
- Prior art keywords
- classification
- computer
- implemented method
- frame
- touch event
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/027—Frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Sorting Of Articles (AREA)
- Supplying Of Containers To The Packaging Station (AREA)
- Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
- Automatic Disk Changers (AREA)
Claims (26)
1. Реализуемый компьютером способ, содержащий:
получение кадровых данных, представляющих множество кадров, захваченных устройством, чувствительным к касанию;
анализ кадровых данных для определения соответствующего блоба в каждом кадре из множества кадров, причем блобы указывают на событие касания;
вычисление множества наборов признаков для события касания, причем каждый набор признаков задает характеристики соответствующего блоба в каждом кадре из множества кадров; и
определение типа события касания посредством классификации машинного самообучения, выполненной с возможностью обеспечения множественных не-двухрежимных оценок классификации на основе множества наборов признаков для множества кадров, причем каждая не-двухрежимная оценка классификации указывает на уровень неопределенности в классификации машинного самообучения.
2. Реализуемый компьютером способ по п. 1, в котором классификация машинного самообучения выполнена с возможностью генерации не-двухрежимных оценок классификации таким образом, чтобы каждая не-двухрежимная оценка классификации представляла собой вероятность того, что событие касания является событием касания соответствующего типа.
3. Реализуемый компьютером способ по п. 2, в котором каждая из не-двухрежимных оценок классификации генерируется классификатором машинного самообучения, выполненным с возможностью приема множества наборов признаков в качестве входных данных.
4. Реализуемый компьютером способ по п. 3, в котором классификатор машинного самообучения содержит классификатор на основе леса произвольных решений.
5. Реализуемый компьютером способ по п. 1, дополнительно содержащий:
определение следа блобов по множеству кадров для события касания; и
вычисление набора признаков следа для следа,
причем определение упомянутого типа содержит применение набора признаков следа в классификаторе машинного самообучения.
6. Реализуемый компьютером способ по п. 1, в котором вычисление множества наборов признаков содержит агрегирование данных, указывающих на множество наборов признаков, перед применением множества наборов признаков в классификаторе машинного самообучения в определении типа события касания.
7. Реализуемый компьютером способ по п. 1, в котором классификация машинного самообучения содержит классификацию на основе справочных таблиц.
8. Реализуемый компьютером способ по п. 1, в котором определение упомянутого типа содержит применение набора признаков для соответствующего кадра из множества кадров к множественным справочным таблицам, причем каждая справочная таблица обеспечивает соответствующую отдельную не-двухрежимную оценку классификации из множественных не-двухрежимных оценок классификации.
9. Реализуемый компьютером способ по п. 8, в котором определение упомянутого типа содержит объединение каждой из отдельных не-двухрежимных оценок классификации для соответствующего кадра для генерации оценки-характеристики классификации блоба для соответствующего кадра.
10. Реализуемый компьютером способ по п. 9, в котором:
множественные справочные таблицы содержат первую справочную таблицу, выполненную с возможностью обеспечения первой характеристики того, что событие касания является преднамеренным касанием, и дополнительно содержат вторую справочную таблицу для определения второй характеристики того, что событие касания является непреднамеренным касанием; и
определение упомянутого типа содержит вычитание второй характеристики из первой характеристики для определения оценки-характеристики классификации блоба для соответствующего кадра.
11. Реализуемый компьютером способ по п. 9, в котором определение упомянутого типа содержит агрегирование оценок-характеристик классификации блобов по множеству кадров для определения совокупной, многокадровой оценки классификации для события касания.
12. Реализуемый компьютером способ по п. 11, в котором определение упомянутого типа содержит:
определение, удовлетворяет ли совокупная, многокадровая оценка классификации одному из множественных порогов классификации; и,
если нет, то итерирование действий применения набора признаков, объединения оценок классификации, и агрегирования оценок-характеристик, в связи с дополнительным набором признаков из множества наборов признаков.
13. Реализуемый компьютером способ по п. 1, в котором каждый набор признаков содержит данные, указывающие на появление участка изображения, расположенного у соответствующего блоба в каждом кадре.
14. Реализуемый компьютером способ по п. 1, в котором каждый набор признаков содержит данные, указывающие на градиент интенсивности в кадровых данных, для соответствующего блоба в каждом кадре.
15. Реализуемый компьютером способ по п. 1, в котором каждый набор признаков содержит данные, указывающие на изопериметрическое частное или другую метрику округленности соответствующего блоба в каждом кадре.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/329,052 | 2014-07-11 | ||
US14/329,052 US9558455B2 (en) | 2014-07-11 | 2014-07-11 | Touch classification |
PCT/US2015/039282 WO2016007450A1 (en) | 2014-07-11 | 2015-07-07 | Touch classification |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2017100249A true RU2017100249A (ru) | 2018-07-16 |
RU2017100249A3 RU2017100249A3 (ru) | 2019-02-12 |
RU2711029C2 RU2711029C2 (ru) | 2020-01-14 |
Family
ID=53758517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017100249A RU2711029C2 (ru) | 2014-07-11 | 2015-07-07 | Классификация касаний |
Country Status (11)
Country | Link |
---|---|
US (2) | US9558455B2 (ru) |
EP (1) | EP3167352B1 (ru) |
JP (1) | JP6641306B2 (ru) |
KR (1) | KR102424803B1 (ru) |
CN (1) | CN106537305B (ru) |
AU (1) | AU2015288086B2 (ru) |
BR (1) | BR112016029932A2 (ru) |
CA (1) | CA2954516C (ru) |
MX (1) | MX2017000495A (ru) |
RU (1) | RU2711029C2 (ru) |
WO (1) | WO2016007450A1 (ru) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11327599B2 (en) | 2011-04-26 | 2022-05-10 | Sentons Inc. | Identifying a contact type |
WO2013059488A1 (en) | 2011-10-18 | 2013-04-25 | Carnegie Mellon University | Method and apparatus for classifying touch events on a touch sensitive surface |
US9099971B2 (en) | 2011-11-18 | 2015-08-04 | Sentons Inc. | Virtual keyboard interaction using touch input force |
US11340124B2 (en) | 2017-08-14 | 2022-05-24 | Sentons Inc. | Piezoresistive sensor for detecting a physical disturbance |
KR20140114766A (ko) | 2013-03-19 | 2014-09-29 | 퀵소 코 | 터치 입력을 감지하기 위한 방법 및 장치 |
US9013452B2 (en) | 2013-03-25 | 2015-04-21 | Qeexo, Co. | Method and system for activating different interactive functions using different types of finger contacts |
US9612689B2 (en) | 2015-02-02 | 2017-04-04 | Qeexo, Co. | Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer |
WO2015114654A1 (en) * | 2014-01-17 | 2015-08-06 | Kpit Technologies Ltd. | Vehicle detection system and method thereof |
US9558455B2 (en) * | 2014-07-11 | 2017-01-31 | Microsoft Technology Licensing, Llc | Touch classification |
CN104199572B (zh) * | 2014-08-18 | 2017-02-15 | 京东方科技集团股份有限公司 | 一种触摸显示装置的触摸定位方法及触摸显示装置 |
US9329715B2 (en) | 2014-09-11 | 2016-05-03 | Qeexo, Co. | Method and apparatus for differentiating touch screen users based on touch event analysis |
US11619983B2 (en) | 2014-09-15 | 2023-04-04 | Qeexo, Co. | Method and apparatus for resolving touch screen ambiguities |
US9864453B2 (en) * | 2014-09-22 | 2018-01-09 | Qeexo, Co. | Method and apparatus for improving accuracy of touch screen event analysis by use of edge classification |
US10606417B2 (en) | 2014-09-24 | 2020-03-31 | Qeexo, Co. | Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns |
US10282024B2 (en) | 2014-09-25 | 2019-05-07 | Qeexo, Co. | Classifying contacts or associations with a touch sensitive device |
JP6543790B2 (ja) * | 2015-03-18 | 2019-07-17 | 株式会社トヨタIt開発センター | 信号処理装置、入力装置、信号処理方法、およびプログラム |
US10642404B2 (en) | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
US10083378B2 (en) * | 2015-12-28 | 2018-09-25 | Qualcomm Incorporated | Automatic detection of objects in video images |
TWI606376B (zh) * | 2016-08-08 | 2017-11-21 | 意象無限股份有限公司 | 觸控感測裝置及濾除誤觸的觸控方法 |
US10313348B2 (en) * | 2016-09-19 | 2019-06-04 | Fortinet, Inc. | Document classification by a hybrid classifier |
CN106708317A (zh) * | 2016-12-07 | 2017-05-24 | 南京仁光电子科技有限公司 | 判断触控点的方法和装置 |
US11580829B2 (en) | 2017-08-14 | 2023-02-14 | Sentons Inc. | Dynamic feedback for haptics |
US11057238B2 (en) | 2018-01-08 | 2021-07-06 | Brilliant Home Technology, Inc. | Automatic scene creation using home device control |
US11175767B2 (en) * | 2018-02-19 | 2021-11-16 | Beechrock Limited | Unwanted touch management in touch-sensitive devices |
CN110163460B (zh) * | 2018-03-30 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 一种确定应用分值的方法及设备 |
KR102606766B1 (ko) | 2018-06-01 | 2023-11-28 | 삼성전자주식회사 | Em 센서 및 이를 포함하는 모바일 기기 |
KR102104275B1 (ko) * | 2018-06-01 | 2020-04-27 | 경희대학교 산학협력단 | 스타일러스 펜을 이용하는 터치 시스템 및 이를 이용한 터치 검출 방법 |
US11009989B2 (en) * | 2018-08-21 | 2021-05-18 | Qeexo, Co. | Recognizing and rejecting unintentional touch events associated with a touch sensitive device |
US11747290B2 (en) * | 2019-02-27 | 2023-09-05 | Li Industries, Inc. | Methods and systems for smart battery collection, sorting, and packaging |
EP3926491A4 (en) * | 2019-03-29 | 2022-04-13 | Sony Group Corporation | IMAGE PROCESSING DEVICE AND METHOD, AND PROGRAM |
US10942603B2 (en) | 2019-05-06 | 2021-03-09 | Qeexo, Co. | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device |
US11231815B2 (en) | 2019-06-28 | 2022-01-25 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
KR20190104101A (ko) * | 2019-08-19 | 2019-09-06 | 엘지전자 주식회사 | 전자 장치의 터치 스크린에서 오류 터치를 판정하는 방법, 장치 및 시스템 |
CN111881287B (zh) * | 2019-09-10 | 2021-08-17 | 马上消费金融股份有限公司 | 一种分类模糊性分析方法及装置 |
US11301099B1 (en) * | 2019-09-27 | 2022-04-12 | Apple Inc. | Methods and apparatus for finger detection and separation on a touch sensor panel using machine learning models |
EP3835929A1 (en) * | 2019-12-13 | 2021-06-16 | Samsung Electronics Co., Ltd. | Method and electronic device for accidental touch prediction using ml classification |
CA3163734A1 (en) * | 2020-01-05 | 2021-07-08 | Aaron T. Emigh | Touch-based control device |
US11592423B2 (en) | 2020-01-29 | 2023-02-28 | Qeexo, Co. | Adaptive ultrasonic sensing techniques and systems to mitigate interference |
US11620294B2 (en) * | 2020-01-30 | 2023-04-04 | Panasonic Avionics Corporation | Dynamic media data management |
GB2591764A (en) * | 2020-02-04 | 2021-08-11 | Peratech Holdco Ltd | Classifying pressure inputs |
US11599223B1 (en) | 2020-03-13 | 2023-03-07 | Apple Inc. | System and machine learning method for separating noise and signal in multitouch sensors |
CN111524157B (zh) * | 2020-04-26 | 2022-07-01 | 南瑞集团有限公司 | 基于摄像头阵列的触屏物体分析方法、系统及存储介质 |
US11899881B2 (en) | 2020-07-17 | 2024-02-13 | Apple Inc. | Machine learning method and system for suppressing display induced noise in touch sensors using information from display circuitry |
KR20220023639A (ko) * | 2020-08-21 | 2022-03-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11954288B1 (en) | 2020-08-26 | 2024-04-09 | Apple Inc. | System and machine learning method for separating noise and signal in multitouch sensors |
US11481070B1 (en) | 2020-09-25 | 2022-10-25 | Apple Inc. | System and method for touch sensor panel with display noise correction |
EP4099142A4 (en) | 2021-04-19 | 2023-07-05 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD OF OPERATION |
WO2022271879A1 (en) * | 2021-06-24 | 2022-12-29 | Icu Medical, Inc. | Infusion pump touchscreen with false touch rejection |
US11537239B1 (en) | 2022-01-14 | 2022-12-27 | Microsoft Technology Licensing, Llc | Diffusion-based handedness classification for touch-based input |
NL2031789B1 (en) * | 2022-05-06 | 2023-11-14 | Microsoft Technology Licensing Llc | Aggregated likelihood of unintentional touch input |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US8103109B2 (en) | 2007-06-19 | 2012-01-24 | Microsoft Corporation | Recognizing hand poses and/or object classes |
US8519965B2 (en) * | 2008-04-23 | 2013-08-27 | Motorola Mobility Llc | Multi-touch detection panel with disambiguation of touch coordinates |
US8502787B2 (en) | 2008-11-26 | 2013-08-06 | Panasonic Corporation | System and method for differentiating between intended and unintended user input on a touchpad |
KR101648747B1 (ko) * | 2009-10-07 | 2016-08-17 | 삼성전자 주식회사 | 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기 |
US8587532B2 (en) * | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
KR20110138095A (ko) | 2010-06-18 | 2011-12-26 | 삼성전자주식회사 | 터치 시스템에서 좌표 보정 방법 및 장치 |
GB201011146D0 (en) * | 2010-07-02 | 2010-08-18 | Vodafone Ip Licensing Ltd | Mobile computing device |
US8754862B2 (en) | 2010-07-11 | 2014-06-17 | Lester F. Ludwig | Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces |
KR20140043299A (ko) | 2010-10-28 | 2014-04-09 | 사이프레스 세미컨덕터 코포레이션 | 용량성 감지 어레이와 스타일러스의 동기화 |
US9244545B2 (en) | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
EP2673698A1 (en) * | 2011-02-08 | 2013-12-18 | Haworth, Inc. | Multimodal touchscreen interaction apparatuses, methods and systems |
WO2013059488A1 (en) * | 2011-10-18 | 2013-04-25 | Carnegie Mellon University | Method and apparatus for classifying touch events on a touch sensitive surface |
US20130106761A1 (en) | 2011-10-28 | 2013-05-02 | Atmel Corporation | Touch Sensor with Lookup Table |
US20130176270A1 (en) | 2012-01-09 | 2013-07-11 | Broadcom Corporation | Object classification for touch panels |
JP5760100B2 (ja) | 2012-02-02 | 2015-08-05 | 株式会社タカラトミー | 放射線測定装置 |
US8973211B2 (en) * | 2012-02-04 | 2015-03-10 | Hsi Fire & Safety Group, Llc | Detector cleaner and/or tester and method of using same |
US8902181B2 (en) | 2012-02-07 | 2014-12-02 | Microsoft Corporation | Multi-touch-movement gestures for tablet computing devices |
US9811209B2 (en) | 2012-02-21 | 2017-11-07 | Flatfrog Laboratories Ab | Touch determination with improved detection of weak interactions |
US20130241887A1 (en) | 2012-03-14 | 2013-09-19 | Texas Instruments Incorporated | Detecting and Tracking Touch on an Illuminated Surface |
WO2013166513A2 (en) | 2012-05-04 | 2013-11-07 | Oblong Industries, Inc. | Cross-user hand tracking and shape recognition user interface |
EP2662756A1 (en) | 2012-05-11 | 2013-11-13 | BlackBerry Limited | Touch screen palm input rejection |
WO2013171747A2 (en) | 2012-05-14 | 2013-11-21 | N-Trig Ltd. | Method for identifying palm input to a digitizer |
US8902170B2 (en) * | 2012-05-31 | 2014-12-02 | Blackberry Limited | Method and system for rendering diacritic characters |
US9483146B2 (en) | 2012-10-17 | 2016-11-01 | Perceptive Pixel, Inc. | Input classification for multi-touch systems |
US20140232679A1 (en) * | 2013-02-17 | 2014-08-21 | Microsoft Corporation | Systems and methods to protect against inadvertant actuation of virtual buttons on touch surfaces |
US10578499B2 (en) * | 2013-02-17 | 2020-03-03 | Microsoft Technology Licensing, Llc | Piezo-actuated virtual buttons for touch surfaces |
AU2014232432A1 (en) | 2013-03-15 | 2015-09-24 | Tactual Labs Co. | Fast multi-touch noise reduction |
KR102143574B1 (ko) * | 2013-09-12 | 2020-08-11 | 삼성전자주식회사 | 근접 터치를 이용한 온라인 서명 인증 방법 및 이를 위한 장치 |
US9329727B2 (en) * | 2013-12-11 | 2016-05-03 | Microsoft Technology Licensing, Llc | Object detection in optical sensor systems |
US9430095B2 (en) * | 2014-01-23 | 2016-08-30 | Microsoft Technology Licensing, Llc | Global and local light detection in optical sensor systems |
US9558455B2 (en) * | 2014-07-11 | 2017-01-31 | Microsoft Technology Licensing, Llc | Touch classification |
US9818043B2 (en) * | 2015-06-24 | 2017-11-14 | Microsoft Technology Licensing, Llc | Real-time, model-based object detection and pose estimation |
-
2014
- 2014-07-11 US US14/329,052 patent/US9558455B2/en active Active
-
2015
- 2015-07-07 RU RU2017100249A patent/RU2711029C2/ru active
- 2015-07-07 MX MX2017000495A patent/MX2017000495A/es unknown
- 2015-07-07 WO PCT/US2015/039282 patent/WO2016007450A1/en active Application Filing
- 2015-07-07 KR KR1020177003813A patent/KR102424803B1/ko active IP Right Grant
- 2015-07-07 EP EP15742432.6A patent/EP3167352B1/en active Active
- 2015-07-07 BR BR112016029932A patent/BR112016029932A2/pt not_active Application Discontinuation
- 2015-07-07 CN CN201580037941.5A patent/CN106537305B/zh active Active
- 2015-07-07 CA CA2954516A patent/CA2954516C/en active Active
- 2015-07-07 JP JP2016575483A patent/JP6641306B2/ja active Active
- 2015-07-07 AU AU2015288086A patent/AU2015288086B2/en active Active
-
2017
- 2017-01-03 US US15/397,336 patent/US10679146B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN106537305B (zh) | 2019-12-20 |
CN106537305A (zh) | 2017-03-22 |
EP3167352B1 (en) | 2021-09-15 |
BR112016029932A2 (pt) | 2017-08-22 |
US20160012348A1 (en) | 2016-01-14 |
KR102424803B1 (ko) | 2022-07-22 |
US10679146B2 (en) | 2020-06-09 |
CA2954516A1 (en) | 2016-01-14 |
WO2016007450A1 (en) | 2016-01-14 |
MX2017000495A (es) | 2017-05-01 |
AU2015288086A1 (en) | 2017-01-05 |
JP2017529582A (ja) | 2017-10-05 |
US20170116545A1 (en) | 2017-04-27 |
CA2954516C (en) | 2022-10-04 |
US9558455B2 (en) | 2017-01-31 |
EP3167352A1 (en) | 2017-05-17 |
AU2015288086B2 (en) | 2020-07-16 |
JP6641306B2 (ja) | 2020-02-05 |
KR20170030613A (ko) | 2017-03-17 |
RU2017100249A3 (ru) | 2019-02-12 |
RU2711029C2 (ru) | 2020-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2017100249A (ru) | Классификация касаний | |
JP2017520825A5 (ru) | ||
WO2016106383A3 (en) | First-person camera based visual context aware system | |
MY194097A (en) | Method for determining user behaviour preference, and method and device for presenting recommendation information | |
JP2014509021A5 (ja) | 視聴ユーザに表示する広告のためのソーシャルエンドースメント情報の選択方法および装置 | |
JP2016513494A5 (ru) | ||
JP2013235577A5 (ru) | ||
JP2018528525A5 (ru) | ||
GB2543198A (en) | Providing automatic actions for mobile onscreen content | |
JP2016503216A5 (ru) | ||
EP2919154A3 (en) | Image processor, important person determination method, image layout method as well as program and recording medium | |
JP2016517555A5 (ru) | ||
JP2017037413A5 (ru) | ||
WO2015013436A3 (en) | Methods of identifying relevant content and subject matter expertise for online communities | |
JP2016539430A5 (ru) | ||
GB2540062A (en) | Systems, apparatuses and methods for communication flow modification | |
WO2015168250A3 (en) | Decision support system for hospital quality assessment | |
JP2016510144A5 (ru) | ||
JP2013250861A5 (ru) | ||
NZ782588A (en) | Determining ore characteristics | |
PH12016501476A1 (en) | Method and apparatus for social relation analysis and management | |
WO2015065852A3 (en) | User information classification method and apparatus, and user group information acquistion method and apparatus | |
MY189180A (en) | Vehicle type determination device, vehicle type determination method, and program | |
WO2014140848A3 (en) | Systems and methods for providing retail process analytics information based on physiological indicator data | |
EP2860987A3 (en) | Methods and systems for dynamic workflow prioritization and tasking |