RU2017100249A - Классификация касаний - Google Patents

Классификация касаний Download PDF

Info

Publication number
RU2017100249A
RU2017100249A RU2017100249A RU2017100249A RU2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A RU 2017100249 A RU2017100249 A RU 2017100249A
Authority
RU
Russia
Prior art keywords
classification
computer
implemented method
frame
touch event
Prior art date
Application number
RU2017100249A
Other languages
English (en)
Other versions
RU2017100249A3 (ru
RU2711029C2 (ru
Inventor
Дэн ДЖОНСОН
Пабло САЛА
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2017100249A publication Critical patent/RU2017100249A/ru
Publication of RU2017100249A3 publication Critical patent/RU2017100249A3/ru
Application granted granted Critical
Publication of RU2711029C2 publication Critical patent/RU2711029C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/027Frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Sorting Of Articles (AREA)
  • Supplying Of Containers To The Packaging Station (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Automatic Disk Changers (AREA)

Claims (26)

1. Реализуемый компьютером способ, содержащий:
получение кадровых данных, представляющих множество кадров, захваченных устройством, чувствительным к касанию;
анализ кадровых данных для определения соответствующего блоба в каждом кадре из множества кадров, причем блобы указывают на событие касания;
вычисление множества наборов признаков для события касания, причем каждый набор признаков задает характеристики соответствующего блоба в каждом кадре из множества кадров; и
определение типа события касания посредством классификации машинного самообучения, выполненной с возможностью обеспечения множественных не-двухрежимных оценок классификации на основе множества наборов признаков для множества кадров, причем каждая не-двухрежимная оценка классификации указывает на уровень неопределенности в классификации машинного самообучения.
2. Реализуемый компьютером способ по п. 1, в котором классификация машинного самообучения выполнена с возможностью генерации не-двухрежимных оценок классификации таким образом, чтобы каждая не-двухрежимная оценка классификации представляла собой вероятность того, что событие касания является событием касания соответствующего типа.
3. Реализуемый компьютером способ по п. 2, в котором каждая из не-двухрежимных оценок классификации генерируется классификатором машинного самообучения, выполненным с возможностью приема множества наборов признаков в качестве входных данных.
4. Реализуемый компьютером способ по п. 3, в котором классификатор машинного самообучения содержит классификатор на основе леса произвольных решений.
5. Реализуемый компьютером способ по п. 1, дополнительно содержащий:
определение следа блобов по множеству кадров для события касания; и
вычисление набора признаков следа для следа,
причем определение упомянутого типа содержит применение набора признаков следа в классификаторе машинного самообучения.
6. Реализуемый компьютером способ по п. 1, в котором вычисление множества наборов признаков содержит агрегирование данных, указывающих на множество наборов признаков, перед применением множества наборов признаков в классификаторе машинного самообучения в определении типа события касания.
7. Реализуемый компьютером способ по п. 1, в котором классификация машинного самообучения содержит классификацию на основе справочных таблиц.
8. Реализуемый компьютером способ по п. 1, в котором определение упомянутого типа содержит применение набора признаков для соответствующего кадра из множества кадров к множественным справочным таблицам, причем каждая справочная таблица обеспечивает соответствующую отдельную не-двухрежимную оценку классификации из множественных не-двухрежимных оценок классификации.
9. Реализуемый компьютером способ по п. 8, в котором определение упомянутого типа содержит объединение каждой из отдельных не-двухрежимных оценок классификации для соответствующего кадра для генерации оценки-характеристики классификации блоба для соответствующего кадра.
10. Реализуемый компьютером способ по п. 9, в котором:
множественные справочные таблицы содержат первую справочную таблицу, выполненную с возможностью обеспечения первой характеристики того, что событие касания является преднамеренным касанием, и дополнительно содержат вторую справочную таблицу для определения второй характеристики того, что событие касания является непреднамеренным касанием; и
определение упомянутого типа содержит вычитание второй характеристики из первой характеристики для определения оценки-характеристики классификации блоба для соответствующего кадра.
11. Реализуемый компьютером способ по п. 9, в котором определение упомянутого типа содержит агрегирование оценок-характеристик классификации блобов по множеству кадров для определения совокупной, многокадровой оценки классификации для события касания.
12. Реализуемый компьютером способ по п. 11, в котором определение упомянутого типа содержит:
определение, удовлетворяет ли совокупная, многокадровая оценка классификации одному из множественных порогов классификации; и,
если нет, то итерирование действий применения набора признаков, объединения оценок классификации, и агрегирования оценок-характеристик, в связи с дополнительным набором признаков из множества наборов признаков.
13. Реализуемый компьютером способ по п. 1, в котором каждый набор признаков содержит данные, указывающие на появление участка изображения, расположенного у соответствующего блоба в каждом кадре.
14. Реализуемый компьютером способ по п. 1, в котором каждый набор признаков содержит данные, указывающие на градиент интенсивности в кадровых данных, для соответствующего блоба в каждом кадре.
15. Реализуемый компьютером способ по п. 1, в котором каждый набор признаков содержит данные, указывающие на изопериметрическое частное или другую метрику округленности соответствующего блоба в каждом кадре.
RU2017100249A 2014-07-11 2015-07-07 Классификация касаний RU2711029C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/329,052 2014-07-11
US14/329,052 US9558455B2 (en) 2014-07-11 2014-07-11 Touch classification
PCT/US2015/039282 WO2016007450A1 (en) 2014-07-11 2015-07-07 Touch classification

Publications (3)

Publication Number Publication Date
RU2017100249A true RU2017100249A (ru) 2018-07-16
RU2017100249A3 RU2017100249A3 (ru) 2019-02-12
RU2711029C2 RU2711029C2 (ru) 2020-01-14

Family

ID=53758517

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017100249A RU2711029C2 (ru) 2014-07-11 2015-07-07 Классификация касаний

Country Status (11)

Country Link
US (2) US9558455B2 (ru)
EP (1) EP3167352B1 (ru)
JP (1) JP6641306B2 (ru)
KR (1) KR102424803B1 (ru)
CN (1) CN106537305B (ru)
AU (1) AU2015288086B2 (ru)
BR (1) BR112016029932A2 (ru)
CA (1) CA2954516C (ru)
MX (1) MX2017000495A (ru)
RU (1) RU2711029C2 (ru)
WO (1) WO2016007450A1 (ru)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
WO2013059488A1 (en) 2011-10-18 2013-04-25 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
US9099971B2 (en) 2011-11-18 2015-08-04 Sentons Inc. Virtual keyboard interaction using touch input force
US11340124B2 (en) 2017-08-14 2022-05-24 Sentons Inc. Piezoresistive sensor for detecting a physical disturbance
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
WO2015114654A1 (en) * 2014-01-17 2015-08-06 Kpit Technologies Ltd. Vehicle detection system and method thereof
US9558455B2 (en) * 2014-07-11 2017-01-31 Microsoft Technology Licensing, Llc Touch classification
CN104199572B (zh) * 2014-08-18 2017-02-15 京东方科技集团股份有限公司 一种触摸显示装置的触摸定位方法及触摸显示装置
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US9864453B2 (en) * 2014-09-22 2018-01-09 Qeexo, Co. Method and apparatus for improving accuracy of touch screen event analysis by use of edge classification
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
JP6543790B2 (ja) * 2015-03-18 2019-07-17 株式会社トヨタIt開発センター 信号処理装置、入力装置、信号処理方法、およびプログラム
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
US10083378B2 (en) * 2015-12-28 2018-09-25 Qualcomm Incorporated Automatic detection of objects in video images
TWI606376B (zh) * 2016-08-08 2017-11-21 意象無限股份有限公司 觸控感測裝置及濾除誤觸的觸控方法
US10313348B2 (en) * 2016-09-19 2019-06-04 Fortinet, Inc. Document classification by a hybrid classifier
CN106708317A (zh) * 2016-12-07 2017-05-24 南京仁光电子科技有限公司 判断触控点的方法和装置
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
US11057238B2 (en) 2018-01-08 2021-07-06 Brilliant Home Technology, Inc. Automatic scene creation using home device control
US11175767B2 (en) * 2018-02-19 2021-11-16 Beechrock Limited Unwanted touch management in touch-sensitive devices
CN110163460B (zh) * 2018-03-30 2023-09-19 腾讯科技(深圳)有限公司 一种确定应用分值的方法及设备
KR102606766B1 (ko) 2018-06-01 2023-11-28 삼성전자주식회사 Em 센서 및 이를 포함하는 모바일 기기
KR102104275B1 (ko) * 2018-06-01 2020-04-27 경희대학교 산학협력단 스타일러스 펜을 이용하는 터치 시스템 및 이를 이용한 터치 검출 방법
US11009989B2 (en) * 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US11747290B2 (en) * 2019-02-27 2023-09-05 Li Industries, Inc. Methods and systems for smart battery collection, sorting, and packaging
EP3926491A4 (en) * 2019-03-29 2022-04-13 Sony Group Corporation IMAGE PROCESSING DEVICE AND METHOD, AND PROGRAM
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
KR20190104101A (ko) * 2019-08-19 2019-09-06 엘지전자 주식회사 전자 장치의 터치 스크린에서 오류 터치를 판정하는 방법, 장치 및 시스템
CN111881287B (zh) * 2019-09-10 2021-08-17 马上消费金融股份有限公司 一种分类模糊性分析方法及装置
US11301099B1 (en) * 2019-09-27 2022-04-12 Apple Inc. Methods and apparatus for finger detection and separation on a touch sensor panel using machine learning models
EP3835929A1 (en) * 2019-12-13 2021-06-16 Samsung Electronics Co., Ltd. Method and electronic device for accidental touch prediction using ml classification
CA3163734A1 (en) * 2020-01-05 2021-07-08 Aaron T. Emigh Touch-based control device
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
US11620294B2 (en) * 2020-01-30 2023-04-04 Panasonic Avionics Corporation Dynamic media data management
GB2591764A (en) * 2020-02-04 2021-08-11 Peratech Holdco Ltd Classifying pressure inputs
US11599223B1 (en) 2020-03-13 2023-03-07 Apple Inc. System and machine learning method for separating noise and signal in multitouch sensors
CN111524157B (zh) * 2020-04-26 2022-07-01 南瑞集团有限公司 基于摄像头阵列的触屏物体分析方法、系统及存储介质
US11899881B2 (en) 2020-07-17 2024-02-13 Apple Inc. Machine learning method and system for suppressing display induced noise in touch sensors using information from display circuitry
KR20220023639A (ko) * 2020-08-21 2022-03-02 삼성전자주식회사 전자 장치 및 그 제어 방법
US11954288B1 (en) 2020-08-26 2024-04-09 Apple Inc. System and machine learning method for separating noise and signal in multitouch sensors
US11481070B1 (en) 2020-09-25 2022-10-25 Apple Inc. System and method for touch sensor panel with display noise correction
EP4099142A4 (en) 2021-04-19 2023-07-05 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD OF OPERATION
WO2022271879A1 (en) * 2021-06-24 2022-12-29 Icu Medical, Inc. Infusion pump touchscreen with false touch rejection
US11537239B1 (en) 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input
NL2031789B1 (en) * 2022-05-06 2023-11-14 Microsoft Technology Licensing Llc Aggregated likelihood of unintentional touch input

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8103109B2 (en) 2007-06-19 2012-01-24 Microsoft Corporation Recognizing hand poses and/or object classes
US8519965B2 (en) * 2008-04-23 2013-08-27 Motorola Mobility Llc Multi-touch detection panel with disambiguation of touch coordinates
US8502787B2 (en) 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
KR101648747B1 (ko) * 2009-10-07 2016-08-17 삼성전자 주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
US8587532B2 (en) * 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
KR20110138095A (ko) 2010-06-18 2011-12-26 삼성전자주식회사 터치 시스템에서 좌표 보정 방법 및 장치
GB201011146D0 (en) * 2010-07-02 2010-08-18 Vodafone Ip Licensing Ltd Mobile computing device
US8754862B2 (en) 2010-07-11 2014-06-17 Lester F. Ludwig Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces
KR20140043299A (ko) 2010-10-28 2014-04-09 사이프레스 세미컨덕터 코포레이션 용량성 감지 어레이와 스타일러스의 동기화
US9244545B2 (en) 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
EP2673698A1 (en) * 2011-02-08 2013-12-18 Haworth, Inc. Multimodal touchscreen interaction apparatuses, methods and systems
WO2013059488A1 (en) * 2011-10-18 2013-04-25 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
US20130106761A1 (en) 2011-10-28 2013-05-02 Atmel Corporation Touch Sensor with Lookup Table
US20130176270A1 (en) 2012-01-09 2013-07-11 Broadcom Corporation Object classification for touch panels
JP5760100B2 (ja) 2012-02-02 2015-08-05 株式会社タカラトミー 放射線測定装置
US8973211B2 (en) * 2012-02-04 2015-03-10 Hsi Fire & Safety Group, Llc Detector cleaner and/or tester and method of using same
US8902181B2 (en) 2012-02-07 2014-12-02 Microsoft Corporation Multi-touch-movement gestures for tablet computing devices
US9811209B2 (en) 2012-02-21 2017-11-07 Flatfrog Laboratories Ab Touch determination with improved detection of weak interactions
US20130241887A1 (en) 2012-03-14 2013-09-19 Texas Instruments Incorporated Detecting and Tracking Touch on an Illuminated Surface
WO2013166513A2 (en) 2012-05-04 2013-11-07 Oblong Industries, Inc. Cross-user hand tracking and shape recognition user interface
EP2662756A1 (en) 2012-05-11 2013-11-13 BlackBerry Limited Touch screen palm input rejection
WO2013171747A2 (en) 2012-05-14 2013-11-21 N-Trig Ltd. Method for identifying palm input to a digitizer
US8902170B2 (en) * 2012-05-31 2014-12-02 Blackberry Limited Method and system for rendering diacritic characters
US9483146B2 (en) 2012-10-17 2016-11-01 Perceptive Pixel, Inc. Input classification for multi-touch systems
US20140232679A1 (en) * 2013-02-17 2014-08-21 Microsoft Corporation Systems and methods to protect against inadvertant actuation of virtual buttons on touch surfaces
US10578499B2 (en) * 2013-02-17 2020-03-03 Microsoft Technology Licensing, Llc Piezo-actuated virtual buttons for touch surfaces
AU2014232432A1 (en) 2013-03-15 2015-09-24 Tactual Labs Co. Fast multi-touch noise reduction
KR102143574B1 (ko) * 2013-09-12 2020-08-11 삼성전자주식회사 근접 터치를 이용한 온라인 서명 인증 방법 및 이를 위한 장치
US9329727B2 (en) * 2013-12-11 2016-05-03 Microsoft Technology Licensing, Llc Object detection in optical sensor systems
US9430095B2 (en) * 2014-01-23 2016-08-30 Microsoft Technology Licensing, Llc Global and local light detection in optical sensor systems
US9558455B2 (en) * 2014-07-11 2017-01-31 Microsoft Technology Licensing, Llc Touch classification
US9818043B2 (en) * 2015-06-24 2017-11-14 Microsoft Technology Licensing, Llc Real-time, model-based object detection and pose estimation

Also Published As

Publication number Publication date
CN106537305B (zh) 2019-12-20
CN106537305A (zh) 2017-03-22
EP3167352B1 (en) 2021-09-15
BR112016029932A2 (pt) 2017-08-22
US20160012348A1 (en) 2016-01-14
KR102424803B1 (ko) 2022-07-22
US10679146B2 (en) 2020-06-09
CA2954516A1 (en) 2016-01-14
WO2016007450A1 (en) 2016-01-14
MX2017000495A (es) 2017-05-01
AU2015288086A1 (en) 2017-01-05
JP2017529582A (ja) 2017-10-05
US20170116545A1 (en) 2017-04-27
CA2954516C (en) 2022-10-04
US9558455B2 (en) 2017-01-31
EP3167352A1 (en) 2017-05-17
AU2015288086B2 (en) 2020-07-16
JP6641306B2 (ja) 2020-02-05
KR20170030613A (ko) 2017-03-17
RU2017100249A3 (ru) 2019-02-12
RU2711029C2 (ru) 2020-01-14

Similar Documents

Publication Publication Date Title
RU2017100249A (ru) Классификация касаний
JP2017520825A5 (ru)
WO2016106383A3 (en) First-person camera based visual context aware system
MY194097A (en) Method for determining user behaviour preference, and method and device for presenting recommendation information
JP2014509021A5 (ja) 視聴ユーザに表示する広告のためのソーシャルエンドースメント情報の選択方法および装置
JP2016513494A5 (ru)
JP2013235577A5 (ru)
JP2018528525A5 (ru)
GB2543198A (en) Providing automatic actions for mobile onscreen content
JP2016503216A5 (ru)
EP2919154A3 (en) Image processor, important person determination method, image layout method as well as program and recording medium
JP2016517555A5 (ru)
JP2017037413A5 (ru)
WO2015013436A3 (en) Methods of identifying relevant content and subject matter expertise for online communities
JP2016539430A5 (ru)
GB2540062A (en) Systems, apparatuses and methods for communication flow modification
WO2015168250A3 (en) Decision support system for hospital quality assessment
JP2016510144A5 (ru)
JP2013250861A5 (ru)
NZ782588A (en) Determining ore characteristics
PH12016501476A1 (en) Method and apparatus for social relation analysis and management
WO2015065852A3 (en) User information classification method and apparatus, and user group information acquistion method and apparatus
MY189180A (en) Vehicle type determination device, vehicle type determination method, and program
WO2014140848A3 (en) Systems and methods for providing retail process analytics information based on physiological indicator data
EP2860987A3 (en) Methods and systems for dynamic workflow prioritization and tasking