RU2010153313A - Пользовательский интерфейс для жестикуляционного управления - Google Patents

Пользовательский интерфейс для жестикуляционного управления Download PDF

Info

Publication number
RU2010153313A
RU2010153313A RU2010153313/08A RU2010153313A RU2010153313A RU 2010153313 A RU2010153313 A RU 2010153313A RU 2010153313/08 A RU2010153313/08 A RU 2010153313/08A RU 2010153313 A RU2010153313 A RU 2010153313A RU 2010153313 A RU2010153313 A RU 2010153313A
Authority
RU
Russia
Prior art keywords
input
action
gestures
gesture
receiving
Prior art date
Application number
RU2010153313/08A
Other languages
English (en)
Inventor
Тхамер А. АБАНАМИ (US)
Тхамер А. АБАНАМИ
Джулиан Леонард СЕЛЬМАН (US)
Джулиан Леонард СЕЛЬМАН
Крейг Е. ЛИХТЕНШТЕЙН (US)
Крейг Е. ЛИХТЕНШТЕЙН
Original Assignee
Майкрософт Корпорейшн (Us)
Майкрософт Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Майкрософт Корпорейшн (Us), Майкрософт Корпорейшн filed Critical Майкрософт Корпорейшн (Us)
Publication of RU2010153313A publication Critical patent/RU2010153313A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

1. Способ выполнения действия на вычислительном устройстве (100), содержащий этапы, на которых: ! выполняют первое действие в ответ на прием первого пользовательского ввода (405), который выбирают из первого множества жестов (606), каждый из которых запускается в соответствии с, по меньшей мере, одним критерием; и ! затем выполняют второе действие в ответ на прием второго пользовательского ввода, который выбирают из второго множества жестов (606), каждый из которых запускается в соответствии с одним критерием, который запускает один из первого множества жестов, и, по меньшей мере, с одним дополнительным критерием. ! 2. Способ по п.1, в котором первое множество жестов (606) включает в себя «скребок», и причем критерий, который запускает «скребок», включает в себя прием ввода, который пересекает на тактильной панели (223) одну линию (610, 620) отметок. ! 3. Способ по п.2, в котором второе множество жестов включает в себя «длинный скребок», который запускается согласно критериям, включающим в себя прием ввода, который без перерыва пересекает, по меньшей мере, две параллельные линии (610, 620) отметок на тактильной панели (223). ! 4. Способ по п.1, в котором первое действие отображает перечень объектов, и второе действие является изменением уровня громкости. ! 5. Способ по п.4, в котором второе множество жестов включает в себя «длинный горизонтальный скребок», который запускается согласно критериям, которые включают в себя прием ввода, который без перерыва пересекает, по меньшей мере, две горизонтальные линии (610, 620) отметок на тактильной панели (223). ! 6. Способ по п.1, в котором первое действие отображает перечень объектов, подлежащих воспроизведению, и в�

Claims (15)

1. Способ выполнения действия на вычислительном устройстве (100), содержащий этапы, на которых:
выполняют первое действие в ответ на прием первого пользовательского ввода (405), который выбирают из первого множества жестов (606), каждый из которых запускается в соответствии с, по меньшей мере, одним критерием; и
затем выполняют второе действие в ответ на прием второго пользовательского ввода, который выбирают из второго множества жестов (606), каждый из которых запускается в соответствии с одним критерием, который запускает один из первого множества жестов, и, по меньшей мере, с одним дополнительным критерием.
2. Способ по п.1, в котором первое множество жестов (606) включает в себя «скребок», и причем критерий, который запускает «скребок», включает в себя прием ввода, который пересекает на тактильной панели (223) одну линию (610, 620) отметок.
3. Способ по п.2, в котором второе множество жестов включает в себя «длинный скребок», который запускается согласно критериям, включающим в себя прием ввода, который без перерыва пересекает, по меньшей мере, две параллельные линии (610, 620) отметок на тактильной панели (223).
4. Способ по п.1, в котором первое действие отображает перечень объектов, и второе действие является изменением уровня громкости.
5. Способ по п.4, в котором второе множество жестов включает в себя «длинный горизонтальный скребок», который запускается согласно критериям, которые включают в себя прием ввода, который без перерыва пересекает, по меньшей мере, две горизонтальные линии (610, 620) отметок на тактильной панели (223).
6. Способ по п.1, в котором первое действие отображает перечень объектов, подлежащих воспроизведению, и второе действие является изменением от одной части к другой части конкретного объекта, воспроизводимого в текущий момент.
7. Способ по п.6, в котором конкретным воспроизводимым объектом является видео, и части видео являются различными сценами или сегментами видео.
8. Способ по п.3, в котором критерий, который запускает «длинный скребок», дополнительно включает в себя пересечение двух параллельных линий (610, 620) отметок в течение заданного промежутка времени.
9. Способ обработки тактильного ввода, содержащий этапы, на которых:
принимают статичный жест в активной области чувствительного к прикосновениям устройства (223) ввода вычислительного устройства (100); и
выполняют действие в ответ на статичный жест, причем активная область проходит по заданной области на чувствительном к прикосновениям устройстве (223) ввода, которая изменяется по размеру в соответствии с состоянием тактильного ввода (405), который был принят.
10. Способ по п.9, в котором состояние тактильного ввода 405 является промежутком времени, в течение которого тактильный ввод (405) был принят прежде приема статичного жеста.
11. Способ по п.9, в котором действие, исполняемое в ответ на жест, является выбором объекта на дисплее вычислительного устройства (100).
12. Способ по п.10, в котором заданная область имеет размер по умолчанию или второй размер, который больше, чем размер по умолчанию, и при этом активная область проходит по заданной области второго размера, если тактильный ввод (405) принимают в течение промежутка времени, превышающего пороговую величину времени.
13. Способ по п.10, в котором заданная область имеет размер по умолчанию или второй размер, который больше, чем размер по умолчанию, и при этом активная область проходит по заданной области второго размера, если тактильный ввод (405) принимают в течение промежутка времени, превышающего пороговую величину времени, и тактильный ввод (405) и статичный жест принимают без какого-либо перерыва между ними.
14. Способ по п.12, в котором заданную область возвращают к размеру по умолчанию, после того как прием статичного жеста завершен.
15. Способ приема пользовательских вводов для управления вычислительным устройством (100), содержащий этапы, на которых:
принимают первый жест в качестве первого пользовательского ввода (405) на устройстве (223) ввода вычислительного устройства (100), причем первый жест запускается, когда удовлетворены, по меньшей мере, N критериев, где N больше или равно 1; и
принимают второй жест в качестве второго пользовательского ввода на устройстве (223) ввода, при этом второй жест запускается, когда удовлетворены, по меньшей мере, N+1 критериев, причем N+1 критериев включают в себя N критериев, которые необходимы для запуска первого жеста.
RU2010153313/08A 2008-06-26 2009-06-12 Пользовательский интерфейс для жестикуляционного управления RU2010153313A (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/147,463 2008-06-26
US12/147,463 US20090327974A1 (en) 2008-06-26 2008-06-26 User interface for gestural control

Publications (1)

Publication Number Publication Date
RU2010153313A true RU2010153313A (ru) 2012-06-27

Family

ID=41445214

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2010153313/08A RU2010153313A (ru) 2008-06-26 2009-06-12 Пользовательский интерфейс для жестикуляционного управления

Country Status (8)

Country Link
US (1) US20090327974A1 (ru)
EP (1) EP2291721A4 (ru)
JP (1) JP2011526037A (ru)
KR (1) KR20110021903A (ru)
CN (1) CN102077153A (ru)
RU (1) RU2010153313A (ru)
TW (1) TW201003492A (ru)
WO (1) WO2009158213A2 (ru)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
US9250788B2 (en) * 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium
DE102010007455A1 (de) 2010-02-10 2011-08-11 Ident Technology AG, 82234 System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum
JP5693729B2 (ja) * 2010-09-15 2015-04-01 アドヴァンスト・シリコン・ソシエテ・アノニム マルチタッチ装置から任意の数のタッチを検出する方法
US8760432B2 (en) 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
US20120216113A1 (en) 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
US9589272B2 (en) * 2011-08-19 2017-03-07 Flipp Corporation System, method, and device for organizing and presenting digital flyers
WO2013143131A1 (en) * 2012-03-30 2013-10-03 Nokia Corporation User interfaces, associated apparatus and methods
US8904304B2 (en) * 2012-06-25 2014-12-02 Barnesandnoble.Com Llc Creation and exposure of embedded secondary content data relevant to a primary content page of an electronic book
US9507513B2 (en) 2012-08-17 2016-11-29 Google Inc. Displaced double tap gesture
WO2014134793A1 (en) * 2013-03-06 2014-09-12 Nokia Corporation Apparatus and associated methods
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
US9645721B2 (en) * 2013-07-19 2017-05-09 Apple Inc. Device input modes with corresponding cover configurations
KR102294193B1 (ko) 2014-07-16 2021-08-26 삼성전자주식회사 프로브 속도에 기초한 컴퓨터 보조 진단 지원 장치 및 방법
JP7126072B2 (ja) * 2018-05-31 2022-08-26 日本精機株式会社 車両用表示制御装置、車載機器操作システム、及びguiプログラム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6938220B1 (en) * 1992-10-21 2005-08-30 Sharp Kabushiki Kaisha Information processing apparatus
DE4406668C2 (de) * 1993-04-27 1996-09-12 Hewlett Packard Co Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6396523B1 (en) * 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US6690365B2 (en) * 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
JP3909230B2 (ja) * 2001-09-04 2007-04-25 アルプス電気株式会社 座標入力装置
US7312785B2 (en) * 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US7046230B2 (en) * 2001-10-22 2006-05-16 Apple Computer, Inc. Touch pad handheld device
US7345671B2 (en) * 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
US7333092B2 (en) * 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7057607B2 (en) * 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
US7499040B2 (en) * 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
US7495659B2 (en) * 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
EP1745456A2 (en) * 2004-04-23 2007-01-24 Cirque Corporation An improved method for scrolling and edge motion on a touchpad
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US7728823B2 (en) * 2004-09-24 2010-06-01 Apple Inc. System and method for processing raw data of track pad device
US20060256089A1 (en) * 2005-05-10 2006-11-16 Tyco Electronics Canada Ltd. System and method for providing virtual keys in a capacitive technology based user input device
JP4684745B2 (ja) * 2005-05-27 2011-05-18 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法
US20070094022A1 (en) * 2005-10-20 2007-04-26 Hahn Koo Method and device for recognizing human intent
US7526737B2 (en) * 2005-11-14 2009-04-28 Microsoft Corporation Free form wiper
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
CN102169415A (zh) * 2005-12-30 2011-08-31 苹果公司 具有多重触摸输入的便携式电子设备
US7656392B2 (en) * 2006-03-24 2010-02-02 Synaptics Incorporated Touch sensor effective area enhancement
KR100767686B1 (ko) * 2006-03-30 2007-10-17 엘지전자 주식회사 터치휠을 구비한 단말기 및 이를 위한 명령 입력 방법
JP2007287015A (ja) * 2006-04-19 2007-11-01 Matsushita Electric Ind Co Ltd 階層構造として記述された項目を選択する入力装置、文字入力装置および入力プログラム
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US7825797B2 (en) * 2006-06-02 2010-11-02 Synaptics Incorporated Proximity sensor device and method with adjustment selection tabs
DE202007018940U1 (de) * 2006-08-15 2009-12-10 N-Trig Ltd. Bewegungserkennung für einen Digitalisierer
US10313505B2 (en) * 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8159457B2 (en) 2006-09-27 2012-04-17 Yahoo! Inc. Zero-click activation of an application
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US8471689B2 (en) * 2007-05-11 2013-06-25 Philippe Stanislas Zaborowski Touch-sensitive motion device
US8947364B2 (en) * 2007-08-20 2015-02-03 Synaptics Incorporated Proximity sensor device and method with activation confirmation
US7956848B2 (en) * 2007-09-04 2011-06-07 Apple Inc. Video chapter access and license renewal

Also Published As

Publication number Publication date
TW201003492A (en) 2010-01-16
KR20110021903A (ko) 2011-03-04
US20090327974A1 (en) 2009-12-31
WO2009158213A3 (en) 2010-04-15
EP2291721A2 (en) 2011-03-09
JP2011526037A (ja) 2011-09-29
WO2009158213A2 (en) 2009-12-30
EP2291721A4 (en) 2012-01-04
CN102077153A (zh) 2011-05-25

Similar Documents

Publication Publication Date Title
RU2010153313A (ru) Пользовательский интерфейс для жестикуляционного управления
US11880550B2 (en) Device, method, and graphical user interface for navigation of concurrently open software applications
AU2016201451B2 (en) Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR102240088B1 (ko) 애플리케이션 스위칭 방법, 디바이스 및 그래픽 사용자 인터페이스
CN103067569B (zh) 一种智能手机多窗口显示方法和装置
US10606469B2 (en) Device, method, and graphical user interface for managing multiple display windows
AU2021200655A1 (en) Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10203871B2 (en) Method for touch input and device therefore
US8806369B2 (en) Device, method, and graphical user interface for managing and interacting with concurrently open software applications
WO2016023319A1 (zh) 控制多媒体播放器的方法、装置及终端
CN103544973B (zh) 一种音乐播放器的歌曲控制方法和装置
US20110074694A1 (en) Device and Method for Jitter Reduction on Touch-Sensitive Surfaces and Displays
RU2008116281A (ru) Способ, устройство, компьютерная программа и графический интерфейс пользователя для пользовательского ввода в электронное устройство
JP2023542666A (ja) 操作方法及び装置
CN104063092A (zh) 一种触摸屏控制方法及装置
TWI518580B (zh) 可攜式裝置與其操作方法
WO2013167040A2 (zh) 一种移动终端及其设置显示区域和显示内容的方法
CN104063128A (zh) 一种信息处理方法及电子设备
CN105468238A (zh) 文件图标显示方法、装置和设备
CN106685851A (zh) 一种数据流量控制方法及终端
CN103902146A (zh) 信息处理的方法及电子设备
TWI615747B (zh) 虛擬鍵盤顯示系統及方法
WO2015117526A1 (zh) 一种触控处理方法和装置
CN102693064B (zh) 一种终端退出保护屏幕的方法及系统
CN105389116A (zh) 用于终端设备的终端应用处理方法和系统、终端设备