RU2017107457A - Неактивная область для поверхности касания на основе контекстуальной информации - Google Patents

Неактивная область для поверхности касания на основе контекстуальной информации Download PDF

Info

Publication number
RU2017107457A
RU2017107457A RU2017107457A RU2017107457A RU2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A
Authority
RU
Russia
Prior art keywords
touch
user
input
touch surface
inactive
Prior art date
Application number
RU2017107457A
Other languages
English (en)
Other versions
RU2017107457A3 (ru
RU2705431C2 (ru
Inventor
Олумуйива М. ДУРОДЖАЙЕ
Дэвид АБЗАРИАН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2017107457A publication Critical patent/RU2017107457A/ru
Publication of RU2017107457A3 publication Critical patent/RU2017107457A3/ru
Application granted granted Critical
Publication of RU2705431C2 publication Critical patent/RU2705431C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Claims (42)

1. Способ, содержащий:
прием, вычислительным устройством, ввода касанием от инструмента ввода через поверхность касания, причем инструмент ввода содержит по меньшей мере одно из стилуса, пера или другого элемента ввода;
идентификацию руки пользователя, которая удерживает инструмент ввода;
установление, вычислительным устройством, неактивной области в поверхности касания, на основе геометрии поверхности касания и руки пользователя, которая идентифицирована как удерживающая инструмент ввода, причем геометрия поверхности касания содержит по меньшей мере одно из размера поверхности касания, формы поверхности касания или положения поверхности касания в пределах корпуса, и неактивная область окружает местоположение ввода касанием от инструмента ввода; и
подавление ввода касанием от пользователя, который принят в неактивной области.
2. Способ по п. 1, в котором неактивная область устанавливается, дополнительно, на основе по меньшей мере одного из:
геометрии ввода касанием от пользователя или другого ввода касанием от пользователя;
количества пользователей, которые взаимодействуют с поверхностью касания;
информации о пользователе, который связан с инструментом ввода;
информации о приложении, которое выполняется в данный момент;
ориентации поверхности касания; или
языка пользователя.
3. Способ по п. 1 или 2, дополнительно содержащий:
поддержание неактивной области относительно ввода касанием от инструмента ввода, когда ввод касанием от инструмента ввода изменяет положение на поверхности касания.
4. Способ по любому из пп. 1-2, дополнительно содержащий:
поддержание неактивной области в поверхности касания, пока ввод касанием остается на поверхности касания в неактивной области.
5. Способ по любому из пп. 1-2, в котором неактивная область продолжается от местоположения ввода касанием инструмента ввода до нижнего края поверхности касания и продолжается от местоположения ввода касанием инструмента ввода до верхнего края поверхности касания.
6. Система, содержащая:
поверхность касания для приема ввода касанием от инструмента ввода;
один или несколько процессоров, соединенных с возможностью связи с поверхностью касания;
память, соединенную с возможностью связи с одним или несколькими процессорами;
модуль неактивной области, хранящийся в памяти и исполняемый одним или несколькими процессорами, для определения неактивной области в поверхности касания относительно ввода касанием от инструмента ввода, причем неактивная область определяется на основе геометрии поверхности касания и руки пользователя, которая идентифицирована как удерживающая инструмент ввода, причем геометрия поверхности касания содержит по меньшей мере одно из размера поверхности касания, формы поверхности касания или положения поверхности касания в пределах корпуса; и
модуль классификации, хранящийся в памяти и исполняемый одним или несколькими процессорами, для классификации ввода касанием, который принят от пользователя в неактивной области, как непреднамеренного.
7. Система по п. 6, в которой неактивная область определяется на основе, по меньшей мере частично, местоположения ввода касанием от инструмента ввода и направления перемещения ввода касанием от инструмента ввода.
8. Система по п. 6 или 7, в которой неактивная область определяется на основе, по меньшей мере частично, ориентации системы, причем модуль неактивной области конфигурирует неактивную область, чтобы она имела первые характеристики, когда система ориентирована в первой ориентации, и конфигурирует неактивную область, чтобы она имела вторые характеристики, когда система ориентирована во второй ориентации, причем каждые из первых характеристик и вторых характеристик содержат по меньшей мере одно из размера, формы или положения.
9. Система по любому из пп. 6-7, в которой неактивная область определяется на основе, по меньшей мере частично, языка пользователя, причем модуль неактивной области конфигурирует неактивную область, чтобы она имела первые характеристики, когда пользователь обменивается информацией на первом языке, и конфигурирует неактивную область, чтобы она имела вторые характеристики, когда пользователь обменивается информацией на втором языке, причем каждые из первых характеристик и вторых характеристик содержат по меньшей мере одно из размера, формы или положения.
10. Система по любому из пп. 6-7, в которой неактивная область определяется на основе, по меньшей мере частично, геометрии ввода касанием от пользователя, причем геометрия ввода касанием от пользователя, содержит по меньшей мере одно из размера, формы или положения, по меньшей мере одно из размера, формы или положения неактивной области, относящихся к по меньшей мере одному из размера, формы или положения ввода касанием от пользователя.
11. Система по любому из пп. 6-7, в которой модуль классификации выполнен с возможностью:
определения того, что один или несколько дополнительных вводов касанием, принятых от пользователя в неактивной области, удовлетворяют одному или нескольким критериям, относящимся к по меньшей мере одному из скорости, направления перемещения или количества вводов касанием; и,
в ответ на определение того, что один или несколько дополнительных вводов касанием от пользователя удовлетворяют одному или нескольким критериям, классификации одного или нескольких дополнительных вводов касанием от пользователя как преднамеренных.
12. Один или несколько машиночитаемых запоминающих носителей, хранящих машиночитаемые команды, которые, при исполнении, предписывают одному или нескольким процессорам выполнить операции, содержащие:
прием ввода касанием от инструмента ввода через поверхность касания;
идентификацию конкретной области поверхности касания на основе геометрии поверхности касания и руки пользователя, которая идентифицирована как удерживающая инструмент ввода, причем геометрия поверхности касания содержит по меньшей мере одно из размера поверхности касания, формы поверхности касания или положения поверхности касания в пределах корпуса; и
блокирование обработки ввода касанием, который принят от пользователя в пределах конкретной области поверхности касания.
13. Один или несколько машиночитаемых запоминающих носителей по п. 12, причем операции дополнительно содержат:
получение уникального идентификатора от инструмента ввода; и
использование уникального идентификатора для получения пользовательской информации, причем пользовательская информация указывает по меньшей мере на одно из предпочтений пользователя, характеристики конечности пользователя, преимущественного использования пользователем одной руки или языка пользователя;
причем конкретная область поверхности касания идентифицируется на основе, по меньшей мере частично, пользовательской информации.
14. Один или несколько машиночитаемых запоминающих носителей по п. 12 или 13, причем операции дополнительно содержат:
прием одного или нескольких дополнительных вводов касанием от пользователя в конкретной области;
определение по меньшей мере одного из следующего: (i) скорость одного или нескольких дополнительных вводов касанием от пользователя удовлетворяет критерию скорости, (ii) направление перемещения одного или нескольких дополнительных вводов касанием от пользователя является конкретным направлением, или (iii) количество одного или нескольких дополнительных вводов касанием от пользователя удовлетворяет критерию количества; и,
в ответ на определение, обеспечение обработки для одного или нескольких дополнительных вводов касанием от пользователя.
RU2017107457A 2014-09-12 2015-09-11 Неактивная область для поверхности касания на основе контекстуальной информации RU2705431C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/485,493 2014-09-12
US14/485,493 US9804707B2 (en) 2014-09-12 2014-09-12 Inactive region for touch surface based on contextual information
PCT/US2015/049546 WO2016040720A1 (en) 2014-09-12 2015-09-11 Inactive region for touch surface based on contextual information

Publications (3)

Publication Number Publication Date
RU2017107457A true RU2017107457A (ru) 2018-09-10
RU2017107457A3 RU2017107457A3 (ru) 2019-04-17
RU2705431C2 RU2705431C2 (ru) 2019-11-07

Family

ID=54200078

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017107457A RU2705431C2 (ru) 2014-09-12 2015-09-11 Неактивная область для поверхности касания на основе контекстуальной информации

Country Status (11)

Country Link
US (1) US9804707B2 (ru)
EP (1) EP3195100B1 (ru)
JP (1) JP6602372B2 (ru)
KR (1) KR102385759B1 (ru)
CN (1) CN106605203B (ru)
AU (1) AU2015314951B2 (ru)
BR (1) BR112017003262B1 (ru)
CA (1) CA2959683C (ru)
MX (1) MX370918B (ru)
RU (1) RU2705431C2 (ru)
WO (1) WO2016040720A1 (ru)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198163B2 (en) * 2012-06-08 2019-02-05 Nec Corporation Electronic device and controlling method and program therefor
KR101580570B1 (ko) 2014-06-10 2015-12-28 주식회사 하이딥 터치 센서 패널의 제어방법 및 제어장치
KR20160023298A (ko) * 2014-08-22 2016-03-03 삼성전자주식회사 전자 장치 및 전자 장치의 입력 인터페이스 제공 방법
US9626020B2 (en) 2014-09-12 2017-04-18 Microsoft Corporation Handedness detection from touch input
US9910540B2 (en) 2015-04-13 2018-03-06 International Business Machines Corporation Management of a touchscreen interface of a device
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
EP3396499A4 (en) * 2015-12-21 2018-12-05 Sony Corporation Information processing device and information processing method
US10725627B2 (en) * 2016-07-15 2020-07-28 International Business Machines Corporation Managing inputs to a user interface with system latency
JP6784115B2 (ja) * 2016-09-23 2020-11-11 コニカミノルタ株式会社 超音波診断装置及びプログラム
US20180101986A1 (en) * 2016-10-10 2018-04-12 Aaron Mackay Burns Drawing in a 3d virtual reality environment
CN106708407B (zh) 2016-12-16 2019-05-03 Oppo广东移动通信有限公司 防止触摸按键误触发的方法、装置及移动终端
WO2020003970A1 (ja) 2018-06-25 2020-01-02 株式会社ワコム タッチic及び外部プロセッサを含むシステムで実行される方法
CN109308205B (zh) * 2018-08-09 2020-12-01 腾讯科技(深圳)有限公司 应用程序的显示适配方法、装置、设备及存储介质
JP7225638B2 (ja) * 2018-09-26 2023-02-21 富士フイルムビジネスイノベーション株式会社 情報処理システムおよびプログラム
JP2021033543A (ja) * 2019-08-22 2021-03-01 株式会社ワコム 入力装置
CN110501897B (zh) * 2019-08-30 2021-08-17 安徽华米信息科技有限公司 智能手表及其触控方法
TWI709891B (zh) * 2019-09-19 2020-11-11 義隆電子股份有限公司 觸控裝置及其操作方法
CN114077825A (zh) * 2020-08-05 2022-02-22 华为技术有限公司 添加批注的方法、电子设备及相关装置
US11385741B2 (en) * 2020-08-31 2022-07-12 Microsoft Technology Licensing, Llc Method to reduce blanking area for palm rejection in low cost in-cell displays
KR20220104471A (ko) * 2021-01-18 2022-07-26 삼성전자주식회사 폴더블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input
JP7473832B1 (ja) 2022-12-01 2024-04-24 富士通クライアントコンピューティング株式会社 電子機器及びプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW528981B (en) 2001-10-25 2003-04-21 Compal Electronics Inc Portable computer and related method for preventing input interruption by write-tracking input region
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
KR100826532B1 (ko) * 2006-03-28 2008-05-02 엘지전자 주식회사 이동 통신 단말기 및 그의 키 입력 검출 방법
KR101442542B1 (ko) * 2007-08-28 2014-09-19 엘지전자 주식회사 입력장치 및 이를 구비한 휴대 단말기
US8402391B1 (en) 2008-09-25 2013-03-19 Apple, Inc. Collaboration system
EP2175344B1 (en) 2008-10-06 2020-02-12 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
TW201104531A (en) 2009-07-17 2011-02-01 Egalax Empia Technology Inc Method and device for palm rejection
WO2011023225A1 (en) * 2009-08-25 2011-03-03 Promethean Ltd Interactive surface with a plurality of input detection technologies
CN102072733A (zh) * 2009-11-25 2011-05-25 神达电脑股份有限公司 将标示语言内容覆盖于地图资料上的方法与个人导航装置
US8587532B2 (en) 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
KR101977613B1 (ko) 2011-01-05 2019-05-14 삼성전자주식회사 입력 장치의 입력 오류를 정정하기 위한 방법 및 장치
WO2012111010A1 (en) 2011-02-15 2012-08-23 N-Trig Ltd. Tracking input to a multi-touch digitizer system
US20130009915A1 (en) * 2011-07-08 2013-01-10 Nokia Corporation Controlling responsiveness to user inputs on a touch-sensitive display
US20130021269A1 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
US8644884B2 (en) 2011-08-04 2014-02-04 Qualcomm Incorporated Sensor-based user interface control
FR2979025A1 (fr) 2011-08-12 2013-02-15 Stantum Procede de caracterisation de toucher sur un ecran tactile
US9002699B2 (en) * 2011-11-14 2015-04-07 Microsoft Technology Licensing, Llc Adaptive input language switching
KR101967632B1 (ko) * 2012-02-13 2019-04-11 삼성전자주식회사 사용자 인터페이스를 가진 태블릿
US9632612B2 (en) * 2012-02-23 2017-04-25 Parade Technologies, Ltd. Circuits, systems, and methods for processing the proximity of large objects, including large objects on touch screens
KR102164453B1 (ko) * 2012-04-07 2020-10-13 삼성전자주식회사 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
US8527722B1 (en) 2012-04-24 2013-09-03 Hitachi, Ltd. Selecting a snapshot method based on cache memory consumption
EP2662756A1 (en) 2012-05-11 2013-11-13 BlackBerry Limited Touch screen palm input rejection
US20130300672A1 (en) 2012-05-11 2013-11-14 Research In Motion Limited Touch screen palm input rejection
US20130300696A1 (en) * 2012-05-14 2013-11-14 N-Trig Ltd. Method for identifying palm input to a digitizer
KR20130136276A (ko) 2012-06-04 2013-12-12 삼성전자주식회사 단말기의 펜 입력 보정장치 및 방법
KR20130138880A (ko) 2012-06-11 2013-12-20 삼성전자주식회사 단말기의 터치 입력 제어장치 및 방법
KR102040857B1 (ko) 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
KR20140046557A (ko) 2012-10-05 2014-04-21 삼성전자주식회사 다점 입력 인식 방법 및 그 단말
US9411461B2 (en) 2012-10-17 2016-08-09 Adobe Systems Incorporated Moveable interactive shortcut toolbar and unintentional hit rejecter for touch input devices
US9483146B2 (en) 2012-10-17 2016-11-01 Perceptive Pixel, Inc. Input classification for multi-touch systems
KR102184288B1 (ko) * 2013-01-17 2020-11-30 삼성전자주식회사 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법
US9836154B2 (en) 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US9626020B2 (en) 2014-09-12 2017-04-18 Microsoft Corporation Handedness detection from touch input

Also Published As

Publication number Publication date
CA2959683C (en) 2022-10-04
MX2017003151A (es) 2017-05-23
JP2017527906A (ja) 2017-09-21
EP3195100B1 (en) 2020-04-01
JP6602372B2 (ja) 2019-11-06
CN106605203B (zh) 2020-05-29
AU2015314951A1 (en) 2017-03-16
CA2959683A1 (en) 2016-03-17
BR112017003262A2 (pt) 2017-11-28
KR102385759B1 (ko) 2022-04-11
MX370918B (es) 2020-01-09
RU2017107457A3 (ru) 2019-04-17
BR112017003262B1 (pt) 2023-11-21
WO2016040720A1 (en) 2016-03-17
AU2015314951B2 (en) 2020-06-18
KR20170053711A (ko) 2017-05-16
RU2705431C2 (ru) 2019-11-07
EP3195100A1 (en) 2017-07-26
US9804707B2 (en) 2017-10-31
US20160077663A1 (en) 2016-03-17
CN106605203A (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
RU2017107457A (ru) Неактивная область для поверхности касания на основе контекстуальной информации
JP2017527906A5 (ru)
CN106605202B (zh) 根据触摸输入的偏手性检测
MX2020007327A (es) Clafisicacion de entrada tactil como accidental o intencional.
US20180335925A1 (en) 3d visualization
EP4307093A3 (en) Invoking automated assistant function(s) based on detected gesture and gaze
JP2017535831A5 (ru)
JP2016509292A5 (ru)
AU2013224761B2 (en) Determining input received via tactile input device
US20190004698A1 (en) Virtual tools for use with touch-sensitive surfaces
RU2016101409A (ru) Способ и устройство для управления приложением
GB2558985A (en) Predicting user needs for a particular context
JP2015527662A5 (ru)
CN105786373B (zh) 一种触控轨迹显示方法及电子设备
RU2017123360A (ru) Осветительный прибор
WO2014146140A3 (en) A mnemonic relative position international keyboard system set on new focus field platform
JP2018032383A5 (ru)
US10809794B2 (en) 3D navigation mode
US9547378B2 (en) Sensor on side of computing device
JP5038523B1 (ja) 操作端末ユニット及び操作用具
KR20120005761U (ko) 정전식 스마트폰 게임패드겸용케이스
KR20150102586A (ko) 스마트폰이 마우스 기능을 하게하는 스마트폰 케이스