RU2011108470A - Портативное электронное устройство с режимом распознавания относительных жестов - Google Patents

Портативное электронное устройство с режимом распознавания относительных жестов Download PDF

Info

Publication number
RU2011108470A
RU2011108470A RU2011108470/08A RU2011108470A RU2011108470A RU 2011108470 A RU2011108470 A RU 2011108470A RU 2011108470/08 A RU2011108470/08 A RU 2011108470/08A RU 2011108470 A RU2011108470 A RU 2011108470A RU 2011108470 A RU2011108470 A RU 2011108470A
Authority
RU
Russia
Prior art keywords
control
gesture
relative
virtual
user
Prior art date
Application number
RU2011108470/08A
Other languages
English (en)
Inventor
Антон ЭНДРЮС (US)
Антон ЭНДРЮС
Тхамер АБАНАМИ (US)
Тхамер АБАНАМИ
Джеффри ФОНГ (US)
Джеффри ФОНГ
Original Assignee
Майкрософт Корпорейшн (Us)
Майкрософт Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Майкрософт Корпорейшн (Us), Майкрософт Корпорейшн filed Critical Майкрософт Корпорейшн (Us)
Publication of RU2011108470A publication Critical patent/RU2011108470A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44568Immediately runnable code
    • G06F9/44584Portable applications, i.e. making applications self-contained, e.g. U3 standard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

1. Компьютерная программа (130), выполняемая на портативном электронном устройстве (100), имеющая датчик (162) сенсорного экрана, причем компьютерная программа содержит ! модуль (135) переключения режима ввода (135), конфигурированный для приема пользовательского ввода (152) переключения режима, чтобы переключаться между режимом прямого ввода и режимом распознавания относительных жестов в ответ на пользовательский ввод (152), причем в режиме прямого ввода один или более элементов (165) графического пользовательского интерфейса (164) портативного электронного устройства (100) являются выбираемыми через сенсорный ввод пользователя, и причем в режиме распознавания относительных жестов элементы (165) графического пользовательского интерфейса по меньшей мере в определенной области (170) графического пользовательского интерфейса (164) являются невыбираемыми; и ! модуль (140) основанного на жестах управления, конфигурированный, в режиме распознавания относительных жестов, распознавать точку (174) контакта на датчике (162) сенсорного экрана между пальцем пользователя и поверхностью датчика (162) сенсорного экрана в определенной области (170), в которой элементы (168) графического пользовательского интерфейса являются невыбираемыми, и представлять в определенной области (170) управление (172) жестом вблизи точки (174) контакта, причем модуль (140) основанного на жестах управления дополнительно конфигурирован, чтобы идентифицировать обнаруженный жест (158) на основе пользовательского сенсорного ввода (156), исходящего из точки (174) контакта, и отправлять сообщение в приложение (110), чтобы настраивать работу портативного электронного устройства (100) на основ

Claims (15)

1. Компьютерная программа (130), выполняемая на портативном электронном устройстве (100), имеющая датчик (162) сенсорного экрана, причем компьютерная программа содержит
модуль (135) переключения режима ввода (135), конфигурированный для приема пользовательского ввода (152) переключения режима, чтобы переключаться между режимом прямого ввода и режимом распознавания относительных жестов в ответ на пользовательский ввод (152), причем в режиме прямого ввода один или более элементов (165) графического пользовательского интерфейса (164) портативного электронного устройства (100) являются выбираемыми через сенсорный ввод пользователя, и причем в режиме распознавания относительных жестов элементы (165) графического пользовательского интерфейса по меньшей мере в определенной области (170) графического пользовательского интерфейса (164) являются невыбираемыми; и
модуль (140) основанного на жестах управления, конфигурированный, в режиме распознавания относительных жестов, распознавать точку (174) контакта на датчике (162) сенсорного экрана между пальцем пользователя и поверхностью датчика (162) сенсорного экрана в определенной области (170), в которой элементы (168) графического пользовательского интерфейса являются невыбираемыми, и представлять в определенной области (170) управление (172) жестом вблизи точки (174) контакта, причем модуль (140) основанного на жестах управления дополнительно конфигурирован, чтобы идентифицировать обнаруженный жест (158) на основе пользовательского сенсорного ввода (156), исходящего из точки (174) контакта, и отправлять сообщение в приложение (110), чтобы настраивать работу портативного электронного устройства (100) на основании обнаруженного жеста (158).
2. Компьютерная программа по п.1, в которой пользовательский ввод переключения режима выбран из группы, состоящей из пользовательского ввода через клавишу фиксации, ассоциированную с портативным электронным устройством, и пользовательским вводом через контакт между пальцем пользователя и поверхностью датчика сенсорного экрана.
3. Компьютерная программа по п.1, в которой управление жестом включает в себя управление транспортировкой, конфигурированное, чтобы фиксировать систему координат для управления транспортировкой для точки контакта в определенной области.
4. Компьютерная программа по п.3,
в которой модуль основанного на жестах управления конфигурирован, чтобы отправлять сообщение в приложение воспроизведения медиа, чтобы настроить работу портативного электронного устройства согласно обнаруженному жесту, идентифицированному модулем основанного на жестах управления;
в которой, в режиме управления воспроизведением управления транспортировкой, обнаруженный жест идентифицируется на основании обнаружения практически горизонтального направления движения пальца пользователя относительно системы координат, и в ответ настраивает временное положение воспроизведения медиа;
в которой, в режиме управления громкостью управления транспортировкой, обнаруженный жест идентифицируется на основании обнаружения практически вертикального управления пальца пользователя относительно системы координат, и в ответ настраивает громкость воспроизведения медиа; и
в которой, в режиме управления паузой управления транспортировкой, обнаруженный жест идентифицируется на основании обнаружения касательного движения пальца пользователя относительно системы координат, и в ответ изменяет статус паузы воспроизведения медиа.
5. Компьютерная программа по п.1,
в которой управление жестом включает в себя виртуальное управление игрой, конфигурированное, чтобы создавать виртуальное управление стиком управления для виртуального управления игрой в точке контакта;
в которой модуль основанного на жестах управления дополнительно конфигурирован, чтобы определять периметр управления, окружающий стик управления виртуальной игрой;
в которой модуль основанного на жестах управления дополнительно конфигурирован, чтобы отправлять сообщение в приложение компьютерной игры, чтобы настраивать работу портативного электронного устройства на основании относительного расстояния виртуального управления стика управления от периметра управления или точки контакта.
6. Компьютерная программа по п.5,
в которой модуль основанного на жестах управления дополнительно конфигурирован, чтобы определять полномасштабное отклонение виртуального управления стиком управления в периметре управления;
в которой сообщение, отправляемое в приложение компьютерной игры, когда обнаруженный жест, основанный на пользовательском сенсорном вводе, принятом виртуальным управлением игрой, через виртуальное управление стиком управления, находится в пределах периметра управления, является соразмерным измеренному отклонению виртуального управления стиком управления относительно полномасштабного отклонения виртуального управления стиком управления; и
в которой сообщение, отправляемое в приложение компьютерной игры, когда обнаруженный жест, основанный на пользовательском сенсорном вводе, принятом виртуальным управлением игрой, через виртуальное управление стиком управления, принимается за пределами периметра управления, является практически равным полномасштабному отклонению виртуального управления стиком управления.
7. Компьютерная программа по п.1, в которой модуль основанного на жестах управления дополнительно конфигурирован, чтобы позиционировать определенную область независимо от графического пользовательского интерфейса портативного электронного устройства.
8. Компьютерная программа по п.1, дополнительно конфигурированная, чтобы позволять модулю управления, основанному на жесте, получать доступ к параметрам управления, определенным разработчиком, посредством которых конфигурируется для работы управление жестами.
9. Компьютерная программа по п.8, в которой параметры управления, определенные разработчиком, выбраны из группы, состоящей из параметра громкости, параметра скорости воспроизведения, параметра управления воспроизведением, параметра определения периметра управления и параметра определения определенной области.
10. Способ управления портативным электронным устройством (100), имеющим датчик (162) сенсорного экрана, содержащий
инициирование режима распознавания относительных жестов в ответ на пользовательский ввод (152) переключения режимов, при этом в режиме распознавания относительных жестов один или более элементов (165) графического пользовательского интерфейса в определенной области (170) графического пользовательского интерфейса (164) являются невыбираемыми;
распознание точки (174) контакта на датчике (162) сенсорного экрана между пальцем пользователя и поверхностью датчика (162) сенсорного экрана в определенной области (170), в которой элементы (168) графического пользовательского интерфейса являются невыбираемыми в режиме распознавания относительных жестов;
представление управления (172) жестом, имеющего определенный периметр (176) управления, вблизи точки (174) контакта в определенной области (170), в которой элементы (168) графического пользовательского интерфейса являются невыбираемыми в режиме распознавания относительных жестов;
идентификацию обнаруженного жеста (158) на основании пользовательского сенсорного ввода (156), исходящего из точки (174) контакта, воспринимаемого управлением (172) жестом в определенной области (170), в которой элементы (168) графического пользовательского интерфейса являются невыбираемыми в пределах датчика (162) сенсорного экрана через датчик (162) сенсорного экрана; и
настройку работы портативного электронного устройства (100) на основании относительного расстояния от предопределенного местоположения (178) на определенном периметре (176) управления до обнаруженного жеста (158) или на основании относительного расстояния от точки (174) контакта до обнаруженного жеста (158).
11. Способ по п.10, в котором пользовательский ввод переключения режима выбран из группы, состоящей из пользовательского ввода через клавишу фиксации, ассоциированную с портативным электронным устройством, и пользовательского ввода через контакт между пальцем пользователя и поверхностью датчика сенсорного экрана.
12. Способ по п.10,
в котором представление управления жестом включает в себя представление управления транспортировкой;
в котором представление управления жестом дополнительно включает в себя фиксирование системы координат для управления транспортировкой для точки контакта в пределах определенной области.
13. Способ по п.12, в котором настройка работы портативного электронного устройства включает в себя:
настройку временного положения воспроизведения медиа в ответ на обнаруженный жест, идентифицированный практически горизонтальным направлением пальца пользователя относительно системы координат;
настройку громкости воспроизведения медиа в ответ на обнаруженный жест, идентифицированный вертикальным направлением пальца пользователя относительно системы координат; и
настройку статуса паузы воспроизведения медиа в ответ на обнаруженный жест, идентифицированный касательным движением пальца пользователя относительно системы координат.
14. Способ по п.10, в котором представление управления жестом, имеющего определенный периметр управления вблизи точки контакта, включает в себя создание виртуального управления стиком управления для виртуального управления игрой в точке контакта, и в котором определенный периметр управления имеет полномасштабное отклонение виртуального управления стиком управления в определенном периметре управления.
15. Способ по п.14, в котором настройка работы портативного электронного устройства включает в себя:
вывод отклика от виртуального управления игрой, который пропорционален измеренному отклонению виртуального управления стиком управления относительно полномасштабного отклонения виртуального управления стиком управления, когда жест, воспринятый датчиком сенсорного экрана, принимается в пределах определенного периметра управления; и
вывод отклика от виртуального управления игрой, который является практически тем же, что и полномасштабное отклонение виртуального управления стиком управления, когда относительный жест принимается за пределами определенного периметра управления.
RU2011108470/08A 2008-09-09 2009-09-09 Портативное электронное устройство с режимом распознавания относительных жестов RU2011108470A (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/206,747 2008-09-09
US12/206,747 US20100064261A1 (en) 2008-09-09 2008-09-09 Portable electronic device with relative gesture recognition mode

Publications (1)

Publication Number Publication Date
RU2011108470A true RU2011108470A (ru) 2012-09-10

Family

ID=41800241

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011108470/08A RU2011108470A (ru) 2008-09-09 2009-09-09 Портативное электронное устройство с режимом распознавания относительных жестов

Country Status (7)

Country Link
US (1) US20100064261A1 (ru)
EP (1) EP2327011A4 (ru)
JP (1) JP2012502393A (ru)
KR (1) KR20110056286A (ru)
CN (1) CN102150123B (ru)
RU (1) RU2011108470A (ru)
WO (1) WO2010030662A2 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2613739C2 (ru) * 2013-01-31 2017-03-21 Сяоми Инк. Способ, устройство и терминальное устройство для управления перемещением интерфейса приложения

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002071931A1 (en) 2001-03-09 2002-09-19 Scimed Life Systems, Inc. Medical slings
US8769427B2 (en) * 2008-09-19 2014-07-01 Google Inc. Quick gesture input
US9250797B2 (en) * 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
JP5548270B2 (ja) * 2009-08-21 2014-07-16 アップル インコーポレイテッド 容量性感知方法及び装置
US9465532B2 (en) 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes
US20110148786A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated Method and apparatus for changing operating modes
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US20110283241A1 (en) * 2010-05-14 2011-11-17 Google Inc. Touch Gesture Actions From A Device's Lock Screen
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US20120102437A1 (en) * 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587540B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9361009B2 (en) * 2010-12-01 2016-06-07 Adobe Systems Incorporated Methods and systems for setting parameter values via radial input gestures
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US20120166944A1 (en) 2010-12-23 2012-06-28 Stephen Hayden Cotterill Device, Method, and Graphical User Interface for Switching Between Two User Interfaces
US9411509B2 (en) * 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
CN102156573B (zh) * 2011-03-25 2015-05-20 中兴通讯股份有限公司 触摸屏电子设备及其可点触响应功能的定位方法
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US20120304131A1 (en) * 2011-05-27 2012-11-29 Jennifer Nan Edge gesture
WO2013012424A1 (en) * 2011-07-21 2013-01-24 Research In Motion Limited Electronic device including a touch-sensitive display and a navigation device and method of controlling the same
TWI446255B (zh) 2011-07-28 2014-07-21 Wistron Corp 具有螢幕顯示選單功能之顯示裝置
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US10318146B2 (en) * 2011-09-12 2019-06-11 Microsoft Technology Licensing, Llc Control area for a touch screen
KR20130050607A (ko) * 2011-11-08 2013-05-16 삼성전자주식회사 단말기에서 독서 관리 방법 및 장치
US9395901B2 (en) 2012-02-08 2016-07-19 Blackberry Limited Portable electronic device and method of controlling same
CN103257817A (zh) * 2012-02-21 2013-08-21 海尔集团公司 共享设备的确定方法和文件传输方法及系统
CN103257813B (zh) * 2012-02-21 2017-12-22 海尔集团公司 一种共享设备的确定方法和文件传输方法以及系统
US9225307B2 (en) 2012-06-28 2015-12-29 Sonos, Inc. Modification of audio responsive to proximity detection
WO2014017831A2 (ko) * 2012-07-25 2014-01-30 Park Chul 터치패널을 갖는 개인휴대단말기의 작동방법
US9189149B2 (en) 2013-03-21 2015-11-17 Sharp Laboratories Of America, Inc. Equivalent gesture and soft button configuration for touch screen enabled device
CN105247468B (zh) * 2013-05-27 2018-01-05 三菱电机株式会社 可编程显示器及其画面操作处理程序
US9405377B2 (en) * 2014-03-15 2016-08-02 Microsoft Technology Licensing, Llc Trainable sensor-based gesture recognition
KR102302233B1 (ko) 2014-05-26 2021-09-14 삼성전자주식회사 사용자 인터페이스 제공 장치 및 방법
US20170192465A1 (en) * 2014-05-30 2017-07-06 Infinite Potential Technologies Lp Apparatus and method for disambiguating information input to a portable electronic device
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
CN104267904A (zh) * 2014-09-26 2015-01-07 深圳市睿德网络科技有限公司 一种具有触摸屏虚拟单位控制的方法及移动终端
US11567626B2 (en) * 2014-12-17 2023-01-31 Datalogic Usa, Inc. Gesture configurable floating soft trigger for touch displays on data-capture electronic devices
JP6497549B2 (ja) * 2015-03-05 2019-04-10 カシオ計算機株式会社 電子機器、タッチ操作制御方法及びプログラム
US11003345B2 (en) * 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
CN106028172A (zh) * 2016-06-13 2016-10-12 百度在线网络技术(北京)有限公司 音/视频处理方法及装置
US10466344B2 (en) * 2016-07-07 2019-11-05 Tactual Labs Co. Human-computer interaction applications of precise ranging technology and geometric dilution of precision in a ranging positioning system for VR
JP6729338B2 (ja) * 2016-12-13 2020-07-22 ヤマハ株式会社 表示装置
DE112017007110T5 (de) * 2017-03-23 2019-11-21 Mitsubishi Electric Corporation Berührungseingabebeurteilungseinrichtung, Berührungseingabebeurteilungsverfahren und Berührungseingabebeurteilungsprogramm
CN111399742B (zh) * 2020-03-13 2024-04-26 华为技术有限公司 界面切换方法、装置和电子设备
CN111522446B (zh) * 2020-06-09 2023-10-03 宁波视睿迪光电有限公司 基于多点tof的手势识别方法及装置
CN114639158A (zh) * 2020-11-30 2022-06-17 伊姆西Ip控股有限责任公司 计算机交互方法、设备和程序产品
CN114446030B (zh) * 2022-01-25 2024-04-09 惠州Tcl移动通信有限公司 姿势识别方法、装置、存储介质及电子设备
US11785300B2 (en) * 2022-02-17 2023-10-10 Roku, Inc. HDMI customized ad insertion

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
JP3874571B2 (ja) * 1999-05-21 2007-01-31 シャープ株式会社 ジェスチャー処理装置及びジェスチャー処理方法
JP2001117686A (ja) * 1999-10-20 2001-04-27 Toshiba Corp ペン入力装置およびペン入力装置のポインティング処理方法
JP4532631B2 (ja) * 1999-10-26 2010-08-25 キヤノン株式会社 情報入出力装置、その制御方法、及びその制御プログラムを格納したコンピュータにより読み取り可能な記録媒体
JP2001202174A (ja) * 2000-01-21 2001-07-27 Canon Inc 画像表示装置、方法および記憶媒体
FI20021655A (fi) * 2002-06-19 2003-12-20 Nokia Corp Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite
EP1639439A2 (en) * 2003-06-13 2006-03-29 The University Of Lancaster User interface
US7176886B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Spatial signatures
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
KR20060008735A (ko) * 2004-07-24 2006-01-27 주식회사 대우일렉트로닉스 터치패드가 장착된 리모콘
JP4903371B2 (ja) * 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
JP2008508601A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのジェスチャ
JP2006093901A (ja) * 2004-09-21 2006-04-06 Saxa Inc ジェスチャ操作可能な電話機
JP2006139615A (ja) * 2004-11-12 2006-06-01 Access Co Ltd 表示装置、メニュー表示プログラムおよびタブ表示プログラム
US8464176B2 (en) * 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
KR101651975B1 (ko) * 2005-03-04 2016-08-29 애플 인크. 다기능 휴대용 장치
JP4832826B2 (ja) * 2005-07-26 2011-12-07 任天堂株式会社 オブジェクト制御プログラムおよび情報処理装置
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8078990B2 (en) * 2006-02-01 2011-12-13 Research In Motion Limited Secure device sharing
US8587526B2 (en) * 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
KR20070113022A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 사용자 입력에 반응하는 터치스크린 장치 및 이의 작동방법
US7422145B2 (en) * 2006-05-08 2008-09-09 Nokia Corporation Mobile communication terminal and method
US8375326B2 (en) * 2006-05-30 2013-02-12 Dell Products Lp. Contextual-based and overlaid user interface elements
US8842074B2 (en) * 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
JP2008140182A (ja) * 2006-12-01 2008-06-19 Sharp Corp 入力装置、送受信システム、入力処理方法、および制御プログラム
KR100842733B1 (ko) * 2007-02-05 2008-07-01 삼성전자주식회사 터치스크린을 구비한 멀티미디어 재생장치의 사용자인터페이스 방법
US9772751B2 (en) * 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US20090227369A1 (en) * 2008-03-10 2009-09-10 Merit Entertainment Amusement Device Having a Configurable Display for Presenting Games Having Different Aspect Ratios
US20110163972A1 (en) * 2010-01-06 2011-07-07 Freddy Allen Anzures Device, Method, and Graphical User Interface for Interacting with a Digital Photo Frame

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2613739C2 (ru) * 2013-01-31 2017-03-21 Сяоми Инк. Способ, устройство и терминальное устройство для управления перемещением интерфейса приложения

Also Published As

Publication number Publication date
JP2012502393A (ja) 2012-01-26
CN102150123A (zh) 2011-08-10
EP2327011A4 (en) 2012-02-01
CN102150123B (zh) 2013-08-14
EP2327011A2 (en) 2011-06-01
WO2010030662A3 (en) 2010-05-06
WO2010030662A2 (en) 2010-03-18
KR20110056286A (ko) 2011-05-26
US20100064261A1 (en) 2010-03-11

Similar Documents

Publication Publication Date Title
RU2011108470A (ru) Портативное электронное устройство с режимом распознавания относительных жестов
AU2018282404B2 (en) Touch-sensitive button
JP2012502393A5 (ru)
KR101978687B1 (ko) 터치스크린 단말기에서 문자 입력 방법 및 장치
KR101341737B1 (ko) 후면 터치를 이용한 단말 제어 장치 및 방법
KR20130099717A (ko) 터치 스크린 기반의 사용자 인터페이스 제공 장치 및 방법
US20110246952A1 (en) Electronic device capable of defining touch gestures and method thereof
JP2018518751A (ja) 指紋認識を用いる操作方法、装置、およびモバイル端末
CN102096490A (zh) 控制触控模块的方法及电子装置
CN101950243A (zh) 一种移动终端及其设置按键位置的方法
CN104423831A (zh) 具有侧边触控组合快捷功能的电子装置
US20130305181A1 (en) Input device
CN204406366U (zh) 具有触控按键的便携式电子装置
KR101107422B1 (ko) 전면부 및 후면부에 터치스크린 패널이 구비된 휴대형 정보단말기
JP2012089120A (ja) コンピューター
US8502778B2 (en) Dual-mode input device operable in a selected one of a relative coordinate mode and an absolute coordinate mode
JP6943250B2 (ja) 情報処理装置、プログラムおよび情報処理システム
CN105138173B (zh) 一种触控显示屏的控制方法
KR102161677B1 (ko) 원격 제어 장치 및 그의 제어 방법
CN106933421A (zh) 电子设备及其触控方法
JP2015153197A (ja) ポインティング位置決定システム
US20140111435A1 (en) Cursor control device and method using the same to launch a swipe menu of an operating system
JP3211484U (ja) 触感型コントローラー
TW201324328A (zh) 電子裝置及切換顯示介面的方法
KR102086676B1 (ko) 유저 인터페이스를 통한 입력 처리 장치 및 방법

Legal Events

Date Code Title Description
FA93 Acknowledgement of application withdrawn (no request for examination)

Effective date: 20120910