RU2013132564A - FUNCTIONING OF INTERACTION WITH THE USER INTERFACE BASED ON THE INSERT POINT - Google Patents

FUNCTIONING OF INTERACTION WITH THE USER INTERFACE BASED ON THE INSERT POINT Download PDF

Info

Publication number
RU2013132564A
RU2013132564A RU2013132564/08A RU2013132564A RU2013132564A RU 2013132564 A RU2013132564 A RU 2013132564A RU 2013132564/08 A RU2013132564/08 A RU 2013132564/08A RU 2013132564 A RU2013132564 A RU 2013132564A RU 2013132564 A RU2013132564 A RU 2013132564A
Authority
RU
Russia
Prior art keywords
page
user
insertion point
input
document
Prior art date
Application number
RU2013132564/08A
Other languages
Russian (ru)
Inventor
Мишель ЛИСС
Чейн МЭТИ-ОУЭНС
Син Ва ЧУЙ
Тара ХОПВУД
Джессика БЕСТ
Original Assignee
Майкрософт Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Майкрософт Корпорейшн filed Critical Майкрософт Корпорейшн
Publication of RU2013132564A publication Critical patent/RU2013132564A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

1. Способ манипулирования функционированием пользовательского интерфейса, содержащий этапы, на которых:создают точку вставки на отображаемой странице документа;обнаруживают пользовательский ввод на отображаемой странице документа;если пользовательский ввод происходит в предварительно заданной области около точки вставки, предоставляют пользователю возможность взаимодействовать с содержимым страницы; иесли пользовательский ввод происходит снаружи этой предварительно заданной области около точки вставки, предоставляют пользователю возможность взаимодействовать со страницей.2. Способ по п.1, в котором пользовательский ввод включает в себя одно из: действия перетаскивания в произвольном направлении, нажатия, касания и масштабирования; и взаимодействие со страницей включает в себя по меньшей мере одно из набора, включающего в себя: панорамирование, изменение размера страницы, изменение свойства страницы и изменение вида страницы.3. Способ по п.1, дополнительно содержащий этап, на котором:динамически регулируют размер упомянутой предварительно заданной области вокруг точки вставки на основе по меньшей мере одного из физического размера устройства, отображающего страницу документа, размера пользовательского интерфейса, отображающего страницу документа, предварительно заданного параметра, размера объекта прикосновения, используемого для основанного на прикосновении взаимодействия, и типа способа пользовательского ввода.4. Способ по п.1, дополнительно содержащий этап, на котором:представляют по меньшей мере одну из стрелки влево и стрелки вправо возле точки вставки, указывающую взаимодействие с со1. A method of manipulating the operation of a user interface, comprising the steps of: creating an insertion point on the displayed document page; detecting user input on the displayed document page; if user input occurs in a predetermined area near the insertion point, provide the user with the opportunity to interact with the content of the page; and if user input occurs outside of this predefined area near the insertion point, allow the user to interact with the page. The method of claim 1, wherein the user input includes one of: dragging, tapping, tapping, and zooming actions; and interacting with the page includes at least one of a set including: panning, resizing a page, changing a page property, and changing a page view. The method according to claim 1, further comprising the step of: dynamically adjusting the size of said predetermined area around the insertion point based on at least one of the physical size of the device displaying the document page, the size of the user interface displaying the document page, a predetermined parameter, the size of the touch object used for touch-based interaction and the type of user input. 4. The method according to claim 1, further comprising the step of: presenting at least one of a left arrow and a right arrow near the insertion point indicating interaction with

Claims (15)

1. Способ манипулирования функционированием пользовательского интерфейса, содержащий этапы, на которых:1. A method of manipulating the operation of a user interface, comprising stages in which: создают точку вставки на отображаемой странице документа;create an insertion point on the displayed page of the document; обнаруживают пользовательский ввод на отображаемой странице документа;detect user input on the displayed page of the document; если пользовательский ввод происходит в предварительно заданной области около точки вставки, предоставляют пользователю возможность взаимодействовать с содержимым страницы; иif user input occurs in a predefined area near the insertion point, provide the user the ability to interact with the contents of the page; and если пользовательский ввод происходит снаружи этой предварительно заданной области около точки вставки, предоставляют пользователю возможность взаимодействовать со страницей.if user input occurs outside this predefined area near the insertion point, provide the user with the ability to interact with the page. 2. Способ по п.1, в котором пользовательский ввод включает в себя одно из: действия перетаскивания в произвольном направлении, нажатия, касания и масштабирования; и взаимодействие со страницей включает в себя по меньшей мере одно из набора, включающего в себя: панорамирование, изменение размера страницы, изменение свойства страницы и изменение вида страницы.2. The method according to claim 1, in which the user input includes one of: the actions of dragging in an arbitrary direction, pressing, touching and scaling; and interacting with the page includes at least one of a set including: panning, resizing the page, changing the page property and changing the appearance of the page. 3. Способ по п.1, дополнительно содержащий этап, на котором:3. The method according to claim 1, additionally containing a stage in which: динамически регулируют размер упомянутой предварительно заданной области вокруг точки вставки на основе по меньшей мере одного из физического размера устройства, отображающего страницу документа, размера пользовательского интерфейса, отображающего страницу документа, предварительно заданного параметра, размера объекта прикосновения, используемого для основанного на прикосновении взаимодействия, и типа способа пользовательского ввода.dynamically adjust the size of said predefined area around the insertion point based on at least one of a physical size of a device displaying a document page, a size of a user interface displaying a document page, a predetermined parameter, a size of a touch object used for touch-based interaction, and a type user input method. 4. Способ по п.1, дополнительно содержащий этап, на котором:4. The method according to claim 1, additionally containing phase, in which: представляют по меньшей мере одну из стрелки влево и стрелки вправо возле точки вставки, указывающую взаимодействие с содержимым, если пользовательский ввод включает в себя действие перетаскивания изнутри упомянутой предварительно заданной области.represent at least one of a left arrow and a right arrow near the insertion point indicating interaction with the content if the user input includes a drag and drop action from the inside of said predefined area. 5. Способ по п.4, дополнительно содержащий этап, на котором:5. The method according to claim 4, further comprising the step of: после обнаружения действия перетаскивания изнутри упомянутой предварительно заданной области, отображают одну из упомянутых стрелок в направлении действия перетаскивания в качестве обратной связи.after detecting the drag action from the inside of the predefined area, one of the arrows in the direction of the drag action is displayed as feedback. 6. Способ по п.1, в котором пользовательский ввод принимают через одно из:6. The method according to claim 1, in which user input is received through one of: основанного на прикосновении ввода, ввода от мышки, ввода с клавиатуры, основанного на голосе ввода и основанного на жесте ввода.touch-based input, mouse input, keyboard input, voice-based input and input-based gesture. 7. Компьютерное устройство, выполненное с возможностью манипулирования функционированием пользовательского интерфейса, причем компьютерное устройство содержит:7. A computer device configured to manipulate the operation of a user interface, the computer device comprising: блок отображения, сконфигурированный отображать пользовательский интерфейс, представляющий страницу документа;a display unit configured to display a user interface representing a document page; компонент ввода, сконфигурированный принимать одно из:an input component configured to accept one of: основанного на прикосновении ввода, ввода от мышки, ввода с клавиатуры, основанного на голосе ввода и основанного на жесте ввода;touch-based input, mouse input, keyboard input, voice-based input, and input-based gesture; запоминающее устройство, сконфигурированное для хранения команд; иa storage device configured to store instructions; and процессор, соединенный с запоминающим устройством для исполнения сохраненных команд, при этом процессор сконфигурирован:a processor connected to a storage device for executing stored instructions, wherein the processor is configured: создавать точку вставки на отображаемой странице документа в ответ на одно из открытия документа и пользовательского ввода;create an insertion point on the displayed page of the document in response to one of the opening of the document and user input; обнаруживать последующий пользовательский ввод на отображаемой странице документа;detect subsequent user input on the displayed page of the document; если последующий пользовательский ввод происходит в предварительно заданной области вокруг точки вставки, предоставлять пользователю возможность взаимодействовать с содержимым страницы, причем упомянутое содержимое содержит по меньшей мере одно из набора, включающего в себя:if subsequent user input occurs in a predefined area around the insertion point, provide the user with the ability to interact with the content of the page, said content containing at least one of a set including: текст, графический объект, изображение, видео объект, таблицу и текстовое поле; иtext, graphic object, image, video object, table and text field; and если последующий пользовательский ввод происходит снаружи этой предварительно заданной области вокруг точки вставки, предоставлять пользователю возможность взаимодействовать со страницей.if subsequent user input occurs outside this predefined area around the insertion point, provide the user with the ability to interact with the page. 8. Компьютерное устройство по п.7, в котором взаимодействие с содержимым включает в себя выбор комбинации текста и объекта.8. The computer device according to claim 7, in which the interaction with the content includes the selection of a combination of text and object. 9. Компьютерное устройство по п.7, в котором последующий пользовательский ввод является действием перетаскивания в произвольном направлении.9. The computer device according to claim 7, in which the subsequent user input is a drag action in an arbitrary direction. 10. Компьютерное устройство по п.7, в котором процессор дополнительно сконфигурирован блокировать помещение точки вставки, если часть документа, куда осуществляется попытка помещения точки вставки, не имеет редактируемого содержимого.10. The computer device according to claim 7, in which the processor is additionally configured to block the insertion point, if the part of the document where the attempt is made to insert the insertion point does not have editable content. 11. Компьютерное устройство по п.7, в котором упомянутая предварительно заданная область вокруг точки вставки имеет одно из фиксированного размера и динамически регулируемого размера на основе одного из физического размера блока отображения и виртуального размера пользовательского интерфейса.11. The computer device according to claim 7, wherein said predefined area around the insertion point has one of a fixed size and a dynamically adjustable size based on one of the physical size of the display unit and the virtual size of the user interface. 12. Считываемый компьютером носитель информации, на котором сохранены команды для манипулирования функционированием пользовательского интерфейса, причем команды содержат:12. A computer-readable storage medium on which instructions for manipulating the operation of a user interface are stored, the instructions comprising: создание точки вставки на отображаемой странице документа в ответ на основанное на прикосновении действие;creating an insertion point on the displayed page of the document in response to a touch-based action; обнаружение последующего пользовательского действия на отображаемой странице документа;detecting subsequent user action on the displayed page of the document; если последующее пользовательское действие происходит в предварительно заданной области вокруг точки вставки, предоставление пользователю возможности взаимодействовать с, по меньшей мере, частью содержимого страницы; иif a subsequent user action occurs in a predefined area around the insertion point, enabling the user to interact with at least a portion of the page content; and если последующее пользовательское действие происходит снаружи этой предварительно заданной области вокруг точки вставки, предоставление пользователю возможности взаимодействовать со страницей, выполняя при этом по меньшей мере одно из набора, включающего в себя: панорамирование страницы, изменение масштаба страницы, вращение страницы и активацию меню.if a subsequent user action occurs outside this predefined area around the insertion point, enabling the user to interact with the page, performing at least one of a set including: panning the page, zooming the page, rotating the page and activating the menu. 13. Считываемый компьютером носитель информации по п.12, в котором команды дополнительно содержат регулировку размера упомянутой предварительно заданной области на основе типа ввода, используемого для последующего пользовательского действия.13. The computer readable medium of claim 12, wherein the instructions further comprise adjusting the size of said predefined area based on the type of input used for the subsequent user action. 14. Считываемый компьютером носитель информации по п.13, в котором предоставление пользователю возможности взаимодействовать с частью содержимого включает в себя предоставление пользователю возможности выбирать часть содержимого.14. The computer-readable storage medium of claim 13, wherein providing the user with the ability to interact with a portion of the content includes providing the user with the ability to select a portion of the content. 15. Считываемый компьютером носитель информации по п.13, в котором команды дополнительно содержат:15. The computer-readable storage medium of claim 13, wherein the instructions further comprise: вслед за помещением точки вставки, представление по меньшей мере одной стрелки возле точки вставки, указывающей взаимодействие с содержимым, если последующее пользовательское действие включает в себя действие перетаскивания изнутри упомянутой предварительно заданной области; иfollowing the placement of the insertion point, the representation of at least one arrow near the insertion point indicating interaction with the content if the subsequent user action includes a drag action from the inside of said predefined area; and после обнаружения действия перетаскивания изнутри упомянутой предварительно заданной области, отображение одной из стрелок в направлении действия перетаскивания. after detecting a drag action from within the aforementioned predetermined area, displaying one of the arrows in the direction of the drag action.
RU2013132564/08A 2011-01-13 2012-01-04 FUNCTIONING OF INTERACTION WITH THE USER INTERFACE BASED ON THE INSERT POINT RU2013132564A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/005,809 US20120185787A1 (en) 2011-01-13 2011-01-13 User interface interaction behavior based on insertion point
US13/005,809 2011-01-13
PCT/US2012/020146 WO2012096804A2 (en) 2011-01-13 2012-01-04 User interface interaction behavior based on insertion point

Publications (1)

Publication Number Publication Date
RU2013132564A true RU2013132564A (en) 2015-01-20

Family

ID=46491699

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013132564/08A RU2013132564A (en) 2011-01-13 2012-01-04 FUNCTIONING OF INTERACTION WITH THE USER INTERFACE BASED ON THE INSERT POINT

Country Status (16)

Country Link
US (1) US20120185787A1 (en)
EP (1) EP2663913A4 (en)
JP (1) JP2014507026A (en)
KR (1) KR20140045301A (en)
CN (1) CN102609188B (en)
AU (1) AU2012205811A1 (en)
BR (1) BR112013017559A2 (en)
CA (1) CA2824055A1 (en)
CL (1) CL2013002004A1 (en)
CO (1) CO6731116A2 (en)
HK (1) HK1173814A1 (en)
MX (1) MX2013008186A (en)
RU (1) RU2013132564A (en)
SG (2) SG191849A1 (en)
WO (1) WO2012096804A2 (en)
ZA (1) ZA201304472B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2668736C1 (en) * 2016-06-23 2018-10-02 Бейджинг Сяоми Мобайл Софтвэр Ко., Лтд. Method and device for selecting the text
RU2705437C2 (en) * 2014-10-22 2019-11-07 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Check pushing to determine permission for direct manipulations in response to user actions

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130179837A1 (en) * 2011-10-17 2013-07-11 Marcus Eriksson Electronic device interface
US9354805B2 (en) * 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169854A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
KR101956082B1 (en) 2012-05-09 2019-03-11 애플 인크. Device, method, and graphical user interface for selecting user interface objects
EP2847661A2 (en) 2012-05-09 2015-03-18 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
KR101823288B1 (en) 2012-05-09 2018-01-29 애플 인크. Device, method, and graphical user interface for transitioning between display states in response to gesture
JP6082458B2 (en) 2012-05-09 2017-02-15 アップル インコーポレイテッド Device, method, and graphical user interface for providing tactile feedback of actions performed within a user interface
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
US8656296B1 (en) * 2012-09-27 2014-02-18 Google Inc. Selection of characters in a string of characters
US9804777B1 (en) 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
JP6138274B2 (en) 2012-12-29 2017-05-31 アップル インコーポレイテッド Device, method and graphical user interface for navigating a user interface hierarchy
CN107831991B (en) 2012-12-29 2020-11-27 苹果公司 Device, method and graphical user interface for determining whether to scroll or select content
CN104903834B (en) 2012-12-29 2019-07-05 苹果公司 For equipment, method and the graphic user interface in touch input to transition between display output relation
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
JP6093877B2 (en) 2012-12-29 2017-03-08 アップル インコーポレイテッド Device, method, and graphical user interface for foregoing generation of tactile output for multi-touch gestures
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
US20140306897A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
US20140380380A1 (en) * 2013-06-24 2014-12-25 Cinematique, L.L.C. System and method for encoding media with motion touch objects and display thereof
US10956433B2 (en) 2013-07-15 2021-03-23 Microsoft Technology Licensing, Llc Performing an operation relative to tabular data based upon voice input
US9383910B2 (en) 2013-10-04 2016-07-05 Microsoft Technology Licensing, Llc Autoscroll regions
US9407596B2 (en) 2013-11-20 2016-08-02 International Business Machines Corporation Interactive splitting of entries in social collaboration environments
WO2015141093A1 (en) * 2014-03-20 2015-09-24 日本電気株式会社 Information processing device, information processing method, and information processing program
US9639263B2 (en) 2014-08-05 2017-05-02 Weebly, Inc. Native overlay for rapid editing of web content
US10139998B2 (en) 2014-10-08 2018-11-27 Weebly, Inc. User interface for editing web content
US10028116B2 (en) 2015-02-10 2018-07-17 Microsoft Technology Licensing, Llc De-siloing applications for personalization and task completion services
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN105468234A (en) * 2015-11-18 2016-04-06 中科创达软件股份有限公司 Information processing method and mobile terminal
US10402470B2 (en) 2016-02-12 2019-09-03 Microsoft Technology Licensing, Llc Effecting multi-step operations in an application in response to direct manipulation of a selected object
CN105843511A (en) * 2016-04-06 2016-08-10 上海斐讯数据通信技术有限公司 Touch screen display content selection method and system
US10459612B2 (en) * 2016-10-05 2019-10-29 Microsoft Technology Licensing, Llc Select and move hint
CN109597981B (en) * 2017-09-30 2022-05-17 腾讯科技(深圳)有限公司 Method and device for displaying text interactive information and storage medium
JP2019124996A (en) * 2018-01-12 2019-07-25 株式会社ミツトヨ Image measurement machine, image measurement method, and image measurement program
US10656780B2 (en) 2018-01-12 2020-05-19 Mitutoyo Corporation Position specifying method and program
CN108681531B (en) * 2018-05-09 2020-11-13 天津字节跳动科技有限公司 Document input control method and device
US20200183553A1 (en) 2018-12-10 2020-06-11 Square, Inc. Customized Web Page Development based on Point-of-Sale Information
US11379113B2 (en) * 2019-06-01 2022-07-05 Apple Inc. Techniques for selecting text
CN111338540B (en) * 2020-02-11 2022-02-18 Oppo广东移动通信有限公司 Picture text processing method and device, electronic equipment and storage medium

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880733A (en) * 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US6941507B2 (en) * 2000-11-10 2005-09-06 Microsoft Corporation Insertion point bungee space tool
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US8996682B2 (en) * 2007-10-12 2015-03-31 Microsoft Technology Licensing, Llc Automatically instrumenting a set of web documents
EP2060970A1 (en) * 2007-11-12 2009-05-20 Research In Motion Limited User interface for touchscreen device
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
JP4577428B2 (en) * 2008-08-11 2010-11-10 ソニー株式会社 Display device, display method, and program
CN101676844A (en) * 2008-09-18 2010-03-24 联想(北京)有限公司 Processing method and apparatus for information input from touch screen
US20100153168A1 (en) * 2008-12-15 2010-06-17 Jeffrey York System and method for carrying out an inspection or maintenance operation with compliance tracking using a handheld device
US8451236B2 (en) * 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US8370736B2 (en) * 2009-03-16 2013-02-05 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
KR20100130671A (en) * 2009-06-04 2010-12-14 삼성전자주식회사 Method and apparatus for providing selected area in touch interface
JP2011014044A (en) * 2009-07-03 2011-01-20 Sony Corp Apparatus and method for controlling operation and computer program
US20120072867A1 (en) * 2010-09-17 2012-03-22 Apple Inc. Presenting pop-up controls in a user interface

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2705437C2 (en) * 2014-10-22 2019-11-07 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Check pushing to determine permission for direct manipulations in response to user actions
RU2668736C1 (en) * 2016-06-23 2018-10-02 Бейджинг Сяоми Мобайл Софтвэр Ко., Лтд. Method and device for selecting the text
US10296201B2 (en) 2016-06-23 2019-05-21 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for text selection

Also Published As

Publication number Publication date
US20120185787A1 (en) 2012-07-19
SG191849A1 (en) 2013-08-30
WO2012096804A3 (en) 2012-11-08
HK1173814A1 (en) 2013-05-24
KR20140045301A (en) 2014-04-16
NZ613149A (en) 2014-11-28
WO2012096804A2 (en) 2012-07-19
AU2012205811A1 (en) 2013-08-01
EP2663913A4 (en) 2016-10-19
MX2013008186A (en) 2013-08-21
CA2824055A1 (en) 2012-07-19
CL2013002004A1 (en) 2013-12-13
SG10201510763RA (en) 2016-01-28
CO6731116A2 (en) 2013-08-15
EP2663913A2 (en) 2013-11-20
ZA201304472B (en) 2014-08-27
CN102609188B (en) 2015-07-08
CN102609188A (en) 2012-07-25
BR112013017559A2 (en) 2016-10-11
JP2014507026A (en) 2014-03-20

Similar Documents

Publication Publication Date Title
RU2013132564A (en) FUNCTIONING OF INTERACTION WITH THE USER INTERFACE BASED ON THE INSERT POINT
JP2014507026A5 (en)
US8347232B1 (en) Interactive user interface
US9035887B1 (en) Interactive user interface
RU2014100897A (en) LAUNCHER FOR CONTEXTUAL MENUS
US9600090B2 (en) Multi-touch integrated desktop environment
US8988366B2 (en) Multi-touch integrated desktop environment
EP2881849A1 (en) Gesture-based screen-magnified touchscreen navigation
US20140372923A1 (en) High Performance Touch Drag and Drop
JP2017079073A5 (en)
JP2014521171A5 (en)
US20150193120A1 (en) Systems and methods for transforming a user interface icon into an enlarged view
JP2012174265A5 (en)
TWI606383B (en) Electronic device and page zooming method thereof
JP2015531530A5 (en)
JP2013058149A5 (en)
RU2012142254A (en) USER INTERFACE
JP2014526762A5 (en)
JP2013504794A (en) Time separation touch input
US9594800B2 (en) Image information processing apparatus, image information processing method, and non-transitory computer readable medium
WO2016025525A1 (en) Smart scrubber in an ebook navigation interface
JP2015001977A5 (en)
JP2016514875A5 (en)
US9262005B2 (en) Multi-touch integrated desktop environment
JP6333779B2 (en) Display control apparatus, display control method, and computer program for executing the same on computer

Legal Events

Date Code Title Description
HZ9A Changing address for correspondence with an applicant