RU2017106225A - Компьютеризированное динамическое разделение взаимодействий по множественным фрагментам контента - Google Patents

Компьютеризированное динамическое разделение взаимодействий по множественным фрагментам контента Download PDF

Info

Publication number
RU2017106225A
RU2017106225A RU2017106225A RU2017106225A RU2017106225A RU 2017106225 A RU2017106225 A RU 2017106225A RU 2017106225 A RU2017106225 A RU 2017106225A RU 2017106225 A RU2017106225 A RU 2017106225A RU 2017106225 A RU2017106225 A RU 2017106225A
Authority
RU
Russia
Prior art keywords
content
pieces
interactive
manipulation
available
Prior art date
Application number
RU2017106225A
Other languages
English (en)
Inventor
Натан ПОЛЛОК
Линдси КЬЮБЕЙСИК
Питер Бенджамин ФРЕЙЛИНГ
Николя БРЕН
Кришнан МЕНОН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2017106225A publication Critical patent/RU2017106225A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Position Input By Displaying (AREA)

Claims (32)

1. Компьютерно-реализуемый способ, содержащий этапы, на которых:
собирают информацию о контенте, доступном для манипуляции на пользовательском интерфейсе (UI), для сохранения в хранилище интерактивного контента, причем хранилище интерактивного контента содержит дерево интерактивного контента, включающее в себя:
информацию о взаимодействиях, доступных для отдельных фрагментов контента, и
информацию о контенте, доступном для манипуляции, для идентификации интерактивных соотношений между контентом, доступным для манипуляции;
принимают пользовательский ввод через UI;
в ответ на прием пользовательского ввода, идентифицируют два или более фрагментов контента, к которому относится пользовательский ввод;
идентифицируют два или более фрагментов контента в хранилище интерактивного контента для определения доступных манипуляций в отношении двух или более фрагментов контента, причем, по меньшей мере, некоторые из двух или более фрагментов контента генерируются разными приложениями; и
в ответ на определение доступных манипуляций в отношении двух или более фрагментов контента, предписывают манипуляцию двумя или более фрагментами контента на UI, по меньшей мере, частично на основании доступных манипуляций в отношении двух или более фрагментов контента.
2. Компьютерно-реализуемый способ по п. 1, в котором пользовательский ввод включает в себя два пользовательских ввода через UI в одно или примерно в одно и то же время.
3. Компьютерно-реализуемый способ по п. 1, в котором:
пользовательский ввод содержит тактильный ввод, и тактильный ввод включает в себя две или более точек контакта; и
способ дополнительно содержит этап, на котором определяют цепь интерактивного контента на основании, по меньшей мере, одного фрагмента контента и двух или более точек контакта.
4. Компьютерно-реализуемый способ по п. 3, дополнительно содержащий этап, на котором идентифицируют цепь интерактивного контента в дереве интерактивного контента для определения доступных манипуляций в отношении, по меньшей мере, одного фрагмента контента.
5. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этапы, на которых:
принимают новый пользовательский ввод через UI; и
предписывают манипуляцию отдельными фрагментами контента на UI, по меньшей мере, частично на основании дерева интерактивного контента.
6. Система, содержащая:
компьютерно-считываемые носители, хранящие, по меньшей мере, модуль манипулятора и два или более приложений;
блок обработки, выполненный с возможностью подключения к компьютерно-считываемым носителям, причем блок обработки выполнен с возможностью выполнения, по меньшей мере, модуля манипулятора и двух или более приложений, причем модуль манипулятора содержит:
модуль интерактивного контента, выполненный с возможностью сохранения и задания интерактивных соотношений между фрагментами контента, связанными с двумя или более приложениями, причем интерактивные соотношения между фрагментами контента сохраняются и задаются в дереве интерактивного контента, включающем в себя:
информацию о взаимодействиях, доступных для отдельных фрагментов контента, и
информацию о контенте, доступном для манипуляции, для идентификации интерактивных соотношений между контентом, доступным для манипуляции; и
модуль нацеливания жестов, выполненный с возможностью определения конкретных фрагментов контента для осуществления манипуляций над множественными фрагментами контента, предписанных пользовательским вводом, связанным с множественными фрагментами контента, причем, по меньшей мере, некоторые из множественных фрагментов контента генерируются разными из двух или более приложений.
7. Система по п. 6, дополнительно содержащая модуль управления поведением, выполненный с возможностью определения операций, подлежащих осуществлению на множественных фрагментах контента, на основании, по меньшей мере, одного из типа жеста, текущего состояния пользовательского ввода и манипуляции, которая осуществляется над отдельными фрагментами из множественных фрагментов контента.
8. Система по п. 6, дополнительно содержащая модуль результата, выполненный с возможностью передачи результатов двум или более приложениям или непосредственной передачи манипуляции, осуществляемой над конкретными фрагментами контента.
9. Система по п. 6, в которой:
модуль нацеливания жестов дополнительно выполнен с возможностью обхода дерева интерактивного контента, начиная с родительских узлов, связанных с двумя или более приложениями и переходя к дочерним узлам, связанным с фрагментами контента, для определения допустимых типов манипуляций в отношении фрагментов контента.
10. Система по п. 9, в которой родительские узлы ограничивают манипуляции дочерних узлов, или дочерние узлы ограничивают манипуляции родительских узлов.
11. Система по п. 9, в которой, в ответ на обход дерева интерактивного контента, начиная с родительских узлов и переходя к дочерним узлам, модуль нацеливания жестов дополнительно выполнен с возможностью обхода дерева интерактивного контента, начиная с дочерних узлов и переходя к родительским узлам, для идентификации манипуляций, которые могут осуществлять отдельные дочерние узлы.
12. Система по п. 8, в которой модуль результата дополнительно выполнен с возможностью передачи результатов в ответ на прием пользовательского ввода или в более позднее время.
13. Система по п. 12, в которой пользовательский ввод включает в себя два пользовательских ввода через UI в одно или примерно в одно и то же время, причем модуль результата выполненный с возможностью задерживать возвращение цели для первого ввода, пока цель не будет определена для следующего ввода.
14. Система по п. 8, в которой модуль результата дополнительно выполнен с возможностью осуществления преобразований на множественных фрагментах контента без необходимости в какой-либо обработке с помощью двух или более приложений.
RU2017106225A 2014-08-29 2015-08-26 Компьютеризированное динамическое разделение взаимодействий по множественным фрагментам контента RU2017106225A (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/473,560 2014-08-29
US14/473,560 US10146409B2 (en) 2014-08-29 2014-08-29 Computerized dynamic splitting of interaction across multiple content
PCT/US2015/046837 WO2016033128A1 (en) 2014-08-29 2015-08-26 Computerized dynamic splitting of interaction across multiple content

Publications (1)

Publication Number Publication Date
RU2017106225A true RU2017106225A (ru) 2018-08-27

Family

ID=54140651

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017106225A RU2017106225A (ru) 2014-08-29 2015-08-26 Компьютеризированное динамическое разделение взаимодействий по множественным фрагментам контента

Country Status (11)

Country Link
US (1) US10146409B2 (ru)
EP (1) EP3186700B1 (ru)
JP (1) JP2017531220A (ru)
KR (1) KR102358818B1 (ru)
CN (1) CN106575192B (ru)
AU (1) AU2015306717A1 (ru)
BR (1) BR112017002640A2 (ru)
CA (1) CA2955500A1 (ru)
MX (1) MX2017002682A (ru)
RU (1) RU2017106225A (ru)
WO (1) WO2016033128A1 (ru)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633466B2 (en) * 2014-09-29 2017-04-25 Microsoft Technology Licensing, Llc Low latency ink rendering pipeline
KR102592719B1 (ko) * 2014-12-15 2023-10-23 필립모리스 프로덕츠 에스.에이. 가열 요소로 기재를 전달하기 위하여 벤츄리 효과를 이용하는 에어로졸-발생 시스템
EP3803563A1 (en) 2018-06-03 2021-04-14 Apple Inc. Framework providing application programming interface for user interfaces and animation

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975690A (en) * 1988-11-07 1990-12-04 Ibm Corporation Method for concurrent data entry and manipulation in multiple applications
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US7047500B2 (en) 2001-11-16 2006-05-16 Koninklijke Philips Electronics N.V. Dynamically configurable virtual window manager
CA2388101A1 (en) * 2002-02-01 2003-08-01 Concepts Egeria Inc. Conceptual user interface
US7088374B2 (en) 2003-03-27 2006-08-08 Microsoft Corporation System and method for managing visual structure, timing, and animation in a graphics processing system
US7095409B2 (en) * 2003-04-30 2006-08-22 Pixar Shot shading method and apparatus
US7417644B2 (en) 2003-05-12 2008-08-26 Microsoft Corporation Dynamic pluggable user interface layout
WO2005029460A1 (en) * 2003-08-21 2005-03-31 Microsoft Corporation Focus management using in-air points
US7839419B2 (en) 2003-10-23 2010-11-23 Microsoft Corporation Compositing desktop window manager
US7336280B2 (en) 2004-11-18 2008-02-26 Microsoft Corporation Coordinating animations and media in computer display output
US7721308B2 (en) 2005-07-01 2010-05-18 Microsoft Corproation Synchronization aspects of interactive multimedia presentation management
US7703039B2 (en) * 2005-12-08 2010-04-20 Adobe Systems Incorporated Methods and apparatus for displaying information
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7620901B2 (en) * 2006-03-21 2009-11-17 Microsoft Corporation Simultaneous input across multiple applications
KR101405924B1 (ko) * 2007-03-19 2014-06-12 엘지전자 주식회사 윈도우 제어 방법 및 이를 구현할 수 있는 단말기
US7932896B2 (en) 2007-06-13 2011-04-26 Apple Inc. Techniques for reducing jitter for taps
WO2009093241A2 (en) 2008-01-23 2009-07-30 N-Trig Ltd. Graphical object manipulation with a touch sensitive screen
KR101446521B1 (ko) 2008-08-12 2014-11-03 삼성전자주식회사 터치 스크린의 정보 스크롤 제어 방법 및 장치
US8732576B2 (en) 2008-12-04 2014-05-20 Nvidia Corporation Operating system providing multi-touch support for applications in a mobile device
US8176096B2 (en) * 2008-12-18 2012-05-08 Microsoft Corporation Data visualization interactivity architecture
US8443303B2 (en) * 2008-12-22 2013-05-14 Verizon Patent And Licensing Inc. Gesture-based navigation
US8446376B2 (en) 2009-01-13 2013-05-21 Microsoft Corporation Visual response to touch inputs
EP2394210A4 (en) 2009-02-03 2012-08-08 Calgary Scient Inc METHOD AND SYSTEM FOR INTERACTION WITH SEVERAL APPLICATIONS ON A SINGLE USER INTERFACE
US20100235769A1 (en) * 2009-03-16 2010-09-16 Microsoft Corporation Smooth layout animation of continuous and non-continuous properties
US9250788B2 (en) 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
US20100251112A1 (en) 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2010124397A1 (en) 2009-04-29 2010-11-04 Torch Mobile Inc. Software-based asynchronous tiled backingstore
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
KR101648747B1 (ko) 2009-10-07 2016-08-17 삼성전자 주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
US8456297B2 (en) * 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US9411504B2 (en) * 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
KR101673918B1 (ko) * 2010-02-11 2016-11-09 삼성전자주식회사 휴대단말에서 복수의 정보들을 제공하는 방법 및 장치
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US8552999B2 (en) * 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
US20120054667A1 (en) 2010-08-31 2012-03-01 Blackboard Inc. Separate and simultaneous control of windows in windowing systems
KR20120091975A (ko) * 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
US9547428B2 (en) 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
WO2012135226A1 (en) * 2011-03-31 2012-10-04 Microsoft Corporation Augmented conversational understanding architecture
US8640047B2 (en) 2011-06-01 2014-01-28 Micorsoft Corporation Asynchronous handling of a user interface manipulation
EP2584450A3 (en) * 2011-10-18 2014-05-21 BlackBerry Limited Method of modifying rendered attributes of list elements in a user interface
US20130093764A1 (en) 2011-10-18 2013-04-18 Research In Motion Limited Method of animating a rearrangement of ui elements on a display screen of an electronic device
US9052796B2 (en) * 2012-01-08 2015-06-09 Microsoft Technology Licensing Llc Asynchronous handling of an input stream dedicated to multiple targets
US20130290867A1 (en) * 2012-04-27 2013-10-31 Litera Technologies, LLC Systems and Methods For Providing Dynamic and Interactive Viewing and Control of Applications
US9619140B2 (en) * 2012-12-12 2017-04-11 Samsung Electronics Co., Ltd. Apparatus and method for creative wallpaper
CN103078996A (zh) * 2012-12-17 2013-05-01 腾讯科技(武汉)有限公司 移动终端桌面快捷方式生成方法、系统及客户端与服务器
US9535503B2 (en) 2013-01-29 2017-01-03 Blackberry Limited Methods and devices for simultaneous multi-touch input
US9122351B2 (en) * 2013-03-15 2015-09-01 Verizon Patent And Licensing Inc. Apparatus for detecting proximity of object near a touchscreen

Also Published As

Publication number Publication date
EP3186700B1 (en) 2021-06-23
CA2955500A1 (en) 2016-03-03
EP3186700A1 (en) 2017-07-05
CN106575192A (zh) 2017-04-19
WO2016033128A1 (en) 2016-03-03
JP2017531220A (ja) 2017-10-19
US10146409B2 (en) 2018-12-04
CN106575192B (zh) 2020-10-27
BR112017002640A2 (pt) 2017-12-05
US20160062580A1 (en) 2016-03-03
KR20170047355A (ko) 2017-05-04
MX2017002682A (es) 2017-06-19
AU2015306717A1 (en) 2017-02-16
KR102358818B1 (ko) 2022-02-07

Similar Documents

Publication Publication Date Title
WO2016036824A4 (en) Visually specifying subsets of components in graph-based programs through user interactions
CO2017011525A2 (es) Manejo de compromisos y solicitudes extraidas de comunicaciones y contenido
JP2016514299A5 (ru)
JP2019532366A5 (ru)
JP2016500168A5 (ru)
PH12017500471A1 (en) Systems and methods for automated data analysis and customer relationship management
JP2017516181A5 (ru)
WO2016036830A4 (en) Executing graph-based program specifications
JP2016510449A5 (ru)
JP2016509308A5 (ru)
JP2017507572A5 (ru)
SG10201906917QA (en) Processing data from multiple sources
JP2016530660A5 (ru)
WO2016036820A4 (en) Managing invocation of tasks
WO2014110167A3 (en) Integrated machine learning for a data management product
RU2017117425A (ru) Автоматическое обнаружение несовпадения схем
JP2014534532A5 (ru)
NO20171576A1 (en) Enhancing oilfield operations with cognitive computing
US9544177B2 (en) System and method for contact merge management
JP2015522887A5 (ru)
JP2016510442A5 (ru)
GB2571686A (en) System and method for analyzing and associating elements of a computer system by shared characteristics
IN2013DE02920A (ru)
MX2015008571A (es) Consultas de busqueda estructuradas ambiguas en redes sociales en linea.
RU2017106225A (ru) Компьютеризированное динамическое разделение взаимодействий по множественным фрагментам контента

Legal Events

Date Code Title Description
FA93 Acknowledgement of application withdrawn (no request for examination)

Effective date: 20180827