WO2014005445A1 - 通过手势控制应用界面的方法、装置和移动终端 - Google Patents

通过手势控制应用界面的方法、装置和移动终端 Download PDF

Info

Publication number
WO2014005445A1
WO2014005445A1 PCT/CN2013/073799 CN2013073799W WO2014005445A1 WO 2014005445 A1 WO2014005445 A1 WO 2014005445A1 CN 2013073799 W CN2013073799 W CN 2013073799W WO 2014005445 A1 WO2014005445 A1 WO 2014005445A1
Authority
WO
WIPO (PCT)
Prior art keywords
control point
gesture
application interface
preset
screen
Prior art date
Application number
PCT/CN2013/073799
Other languages
English (en)
French (fr)
Inventor
梁捷
江卫忠
Original Assignee
优视科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 优视科技有限公司 filed Critical 优视科技有限公司
Priority to US14/379,512 priority Critical patent/US9830072B2/en
Publication of WO2014005445A1 publication Critical patent/WO2014005445A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor

Definitions

  • the present invention relates to the field of mobile communication technologies, and in particular, to a method, an apparatus, and a mobile terminal for controlling an application interface by gestures.
  • BACKGROUND With the advancement of society and the development of technology, people are increasingly using mobile terminals and accessing the network wirelessly for web browsing, media playback, user interaction, instant communication, games, etc. Frequently close, switch, and select, page, forward, and rewind the application interface.
  • Traditional methods of closing, creating, switching windows (or application interfaces) mostly require users to click on physical buttons or virtual buttons (controls) to perform corresponding control operations, while for some applications, especially reading software, in mobile terminals.
  • the screen space is very valuable, and the user does not want any extra control to block the reading area, but the design requirement of the large screen of the mobile terminal causes the control to occupy a limited screen space.
  • This creates a contradiction the user needs a large area of visual space, and needs convenient, personalized operation buttons.
  • the traditional user interface can provide users with limited space for customization, and users cannot decide the operation interface according to their own preferences.
  • Today, such mobile terminals are increasingly becoming an important tool for people to communicate, obtain information, and entertain. This contradiction has gradually affected the human-computer interaction between users and mobile terminals.
  • an object of the present invention is to provide a method, apparatus, and mobile terminal for controlling an application interface through a screen input gesture.
  • a method for controlling an application interface by gestures including: a terminal browser acquiring a preset gesture of generating a control point of an input screen; generating a control point according to a preset gesture of the input screen, the controlling The point is associated with at least one preset area of the screen; The terminal browser acquires an operation gesture of the input screen to the control point, and generates an application interface corresponding to the preset area where the control point is located according to the operation gesture.
  • the control point is a semi-transparent area control floating on the application interface, and the control point moves on the screen based on a finger drag operation.
  • each preset area corresponds to one or a group of application interface operations.
  • generating an application interface corresponding to the preset area where the control point is located according to the operation gesture includes: converting to the preset when the control point is in or moving to the preset area
  • the application interface operation control corresponding to the area.
  • the preset area and the corresponding application interface operation include at least one of the following: a preset area set at the top of the screen corresponds to a title bar operation of the application interface; and a preset area set at the bottom end of the screen corresponds to the application.
  • the menu bar operation of the interface; the preset area set at the center of the screen corresponds to the advanced menu operation of the application interface; the preset area set at the center of the left or right side of the screen corresponds to the page turning operation of the application interface.
  • the application interface operation corresponding to each preset area includes an operation of restoring the application interface operation control to a free control point, and the application interface operation control is restored to a control point in response to a preset input of the user.
  • the current control point is deleted by another preset gesture or a gesture opposite to the preset gesture of generating the control point.
  • an apparatus for controlling an application interface by using a gesture includes: an input gesture acquisition unit, a preset gesture for acquiring a control point of an input screen, and an operation gesture for a control point; a generating unit, configured to generate a control point according to a preset gesture of the input screen, where the control point is associated with at least one preset area of the screen; And a control point operation unit, configured to generate an application interface corresponding to the preset area where the control point is located according to an operation gesture of the control point.
  • the control point operation unit converts the control point into an application interface operation control corresponding to the preset area when the control point is in or moved to the preset area.
  • the control point generating unit generates a position of the control point as a position at which the preset gesture of the control point on the screen starts or ends; the control point operation unit generates the mobile device after the control point is generated or moved.
  • the control point automatically adsorbs to the nearest preset area; and the control point operation unit deletes the current control point by another preset gesture or a gesture opposite to the preset gesture of establishing the control point.
  • the present invention also provides a touch screen mobile terminal including the above device for controlling an application interface by gesture.
  • the method and device for controlling an application interface through screen gestures can break through the traditional interface operation mode, and realize the layout of the mobile device application interface through the gesture control interface without occupying the visual space of the screen.
  • the operation is also more flexible and intuitive, thereby improving the user's experience in using the mobile terminal for web browsing, media playing, user interaction, instant communication, and gaming.
  • FIG. 1 is a flowchart of a method for controlling an application interface by gesture according to an embodiment of the present invention
  • FIG. 2a and FIG. 2b are respectively a free control point and a free control point on a mobile terminal according to an embodiment of the present invention
  • FIG. 3a, FIG. 3b, FIG. 3c, and FIG. 3d are schematic diagrams of operation of a fixed docking area and a corresponding application interface according to an embodiment of the present invention
  • FIG. 4a and FIG. 4b respectively show the establishment of a sum according to an embodiment of the present invention.
  • FIG. 5 is a block schematic diagram of an apparatus for controlling an application interface by gestures in accordance with an embodiment of the present invention.
  • the same reference numerals are used throughout the drawings to refer to the DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS It should be noted that the embodiments in the present application and the features in the embodiments may be combined with each other without conflict. The invention will be described in detail below with reference to the drawings in conjunction with the embodiments.
  • the embodiment of the present invention directly controls the application interface of the mobile terminal through the user's screen input gesture to break through the traditional application interface operation mode. , making the layout of the mobile terminal interface more free.
  • the mobile terminal to which the method of the embodiment of the present invention is applied is a mobile terminal or other device having a touch screen.
  • the concept of a control point is first introduced, and the control point may be a semi-transparent area control floating on the application interface, and the control point passes through a certain setting.
  • the set screen input gesture is created and deleted, and the gesture can be freely defined. After the control point is established, it can be dragged by a finger, and can be docked to at least one preset area set by the screen, and each preset area corresponds to one or a group of operations respectively.
  • the control point is docked in a different preset area, and will be converted into an operation panel designated by the preset area, and a corresponding one or a group of operations can be performed through the operation panel.
  • the preset area is a control point docking area preset on the screen, in the description of the embodiment of the present invention, the preset area is also referred to as a fixed docking area.
  • At least one preset area needs to be preset on the screen, and each preset area corresponds to one or a group of application interface operations; then, a control point is defined, the control point An area control defined as a preset screen input gesture in response to a user input, and the control point moves on the screen based on a finger drag operation; after the control point is defined, the preset area and the control point are associated, wherein When the control point is in or moved to the preset area, the application interface operation control corresponding to the preset area is changed, and the application interface operation control can also be restored to the free control point in response to the user's setting input.
  • FIG. 1 is a flow chart of a method of controlling an application interface by gestures according to an embodiment of the present invention.
  • the preset needs to input a preset gesture through the terminal screen, and the terminal browser acquires a preset gesture of generating a control point of the input screen (step S110).
  • step S120 And generating a control point according to the preset gesture of the input screen, the control point being associated with at least one preset area of the screen (step S120); after generating the control point, continuing to operate the control point, the terminal
  • the browser acquires an operation gesture of the input screen to the control point (step S130), and then generates an application interface corresponding to the preset area in which the control point is located according to the operation gesture (step S140).
  • the control point can be established through the preset screen input gesture, and the control point is transformed into a fixed operation panel of the current application interface by establishing the control point and dragging to the preset area.
  • FIGS. 2b are schematic diagrams of control points on the mobile terminal and preset areas of the control points, respectively.
  • the control point is a circular button shape, which can also be designed into other shapes (such as hand shape, heart shape or animal shape, etc.) according to the user's personal preference, but is generally translucent to ensure that it does not affect it.
  • the control point floats above the application interface to facilitate user movement.
  • the stripe area is a preset area, and the control point can be dragged by the finger to the preset area set by the screen.
  • 3a to 3d respectively illustrate a schematic diagram of operation of a preset area and a corresponding application interface according to an embodiment of the present invention.
  • the control point When the control point is in or moved to the preset area, it is converted into an application corresponding to the preset area. Interface operation controls. In addition, the application interface operation control can also be set to be restored to the control point in response to the user's preset input.
  • the fixed docking area disposed at the center of the right side of the screen corresponds to the page turning operation of the application interface; as shown in FIG. 3b, the fixed docking area set at the bottom end of the screen corresponds to a menu bar operation of the application interface; as shown in FIG. 3c, a fixed docking area disposed at the top of the screen corresponds to a title bar operation of the application interface; as shown in FIG.
  • the preset screen input gesture of establishing the control point is an arc in which the finger is drawn "U" from left to right on the screen as shown in FIG. 4a, and the position of the control point is established.
  • the end position of the arc of the "U" on the screen that is, the position at which the preset screen input gesture of the control point is established.
  • the fixed operation panel can be changed with the control point, and the setting interface input of the application interface operation control to the control point can have various forms.
  • the application interface operation can be set in the application interface operation corresponding to each fixed docking area. The control is restored to the control point. You can also double-click or long press the current application interface to control the control to restore it to a control point.
  • the control point can be automatically adsorbed to the nearest fixed docking area after being established or moved.
  • the method for controlling an application interface through a screen input gesture in the embodiment of the present invention can enable the user to break through the traditional interface operation mode, and intuitively and conveniently on the basis of not affecting the normal content display of the screen.
  • the operation mode controls the application interface, which makes the layout of the mobile device interface more free, and the browsing utilization rate of the screen reaches the maximum.
  • FIG. 5 illustrates a block schematic diagram of an apparatus 500 for controlling an application interface by gestures in accordance with an embodiment of the present invention.
  • the apparatus 500 for controlling an application interface through a screen input gesture includes an input gesture acquisition unit 510, a control point generation unit 520, and a control point operation unit 530.
  • the input gesture acquiring unit 510 is configured to acquire a preset gesture of the input control point of the input screen and an operation gesture for the control point.
  • the control point generating unit 520 is configured to generate a control point according to the preset gesture of the input screen, where the control point is At least one preset area of the screen is associated; the control point operation unit 530 is configured to generate an application interface corresponding to the preset area where the control point is located according to the operation gesture of the control point.
  • the apparatus 500 includes a processor for performing the functions of the various units described above.
  • the control point operation unit 530 converts the control point into an application interface operation control corresponding to the preset area when the control point is at or moved to the preset area. .
  • control point generating unit 520 generates a position of the control point as a position at which the preset gesture of the control point on the screen starts or ends; the control point operation unit generates at the control point. Or, after the movement, the control point is automatically adsorbed to the nearest preset area; the control point operation unit 530 deletes the current control point by another preset gesture or a gesture opposite to the preset gesture of establishing the control point (see FIG. 4). Shown). It should be noted that, for more specific implementation manners of the foregoing units, refer to the description in the method flow, and details are not described herein again.
  • an embodiment of the present invention further provides a touch screen mobile terminal including the foregoing device for controlling an application interface by using a gesture.
  • the method for controlling an application interface by gestures provided by the embodiment of the present invention can be executed on the mobile terminal.
  • a program for performing the method of controlling an application interface by gestures of an embodiment of the present invention may be stored in a computer storage medium. Therefore, an embodiment of the present invention further provides a computer storage medium storing a program for executing a method for controlling an application interface by gestures according to an embodiment of the present invention.
  • the mobile terminal of the present invention may be various handheld terminal devices, such as a mobile phone, a personal digital assistant (PDA), etc., and thus the scope of protection of the present invention should not be limited to a particular type of mobile terminal.
  • the method according to the invention can also be implemented as a computer program executed by a CPU. When the computer program is executed by the CPU, the above-described functions defined in the method of the present invention are performed.
  • the method steps and system units described above may also be implemented with a controller and a computer readable storage device for storing a computer program that causes the controller to implement the steps or unit functions described above.
  • a computer readable storage device eg, a memory
  • a volatile memory can be a volatile memory or a nonvolatile memory, or can include both volatile and nonvolatile memory.
  • non-volatile memory may include read only memory (ROM), programmable ROM (PROM), electrically programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), or flash.
  • ROM read only memory
  • PROM programmable ROM
  • EPROM electrically programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash volatile memory
  • Volatile memory can include random access memory (RAM), which can act as external cache memory.
  • RAM can be obtained in a variety of forms, such as synchronous RAM (DRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM), enhanced SDRAM (ESDRAM), Synchronous Link DRAM (SLDRAM) and direct Rambus RAM (DRRAM).
  • DRAM synchronous RAM
  • DRAM dynamic RAM
  • SDRAM synchronous DRAM
  • DDR SDRAM double data rate SDRAM
  • ESDRAM enhanced SDRAM
  • SLDRAM Synchronous Link DRAM
  • DRRAM direct Rambus RAM
  • Storage devices of the disclosed aspects are intended to comprise, without being limited to, these and other suitable types of memory.
  • the various exemplary logical blocks, units, circuits, and algorithm steps described in connection with the disclosure herein may be implemented as electronic hardware, computer software, or combinations of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, units, circuits, and steps have been described.
  • a general purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller or state machine.
  • the processor may also be implemented as a combination of computing devices, e.g., a combination of a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other such configuration.
  • a software unit may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM, or any other form of storage medium known in the art.
  • An exemplary storage medium is coupled to the processor, such that the processor can read information from or write information to the storage medium.
  • the storage medium can be integrated with a processor.
  • the processor and the storage medium can reside in an ASIC.
  • the ASIC can reside in the user terminal.
  • the processor and the storage medium may reside as a discrete component in the user terminal.
  • the functions may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored on or transmitted as one or more instructions or code on a computer readable medium.
  • Computer readable media includes both computer storage media and communication media including any medium that facilitates transfer of a computer program from one location to another.
  • a storage medium may be any available media that can be accessed by a general purpose or special purpose computer.
  • the computer readable medium may comprise RAM, ROM, EEPROM CD-ROM or other optical disk storage device, disk storage device or other magnetic storage device, or may be used for carrying or storing the form as an instruction or The required program code of the data structure and any other medium that can be accessed by a general purpose or special purpose computer or a general purpose or special purpose processor.
  • any connection is properly termed a computer-readable medium.
  • a magnetic disk and an optical disk include a compact disk (CD), a laser disk, an optical disk, a digital versatile disk (DVD), a floppy disk, a Blu-ray disk, in which a disk generally reproduces data magnetically, and an optical disk optically reproduces data using a laser. .

Abstract

本发明提供了一种通过手势控制应用界面的方法、装置和移动终端,包括:终端浏览器获取输入屏幕的生成控制点的预设手势;根据输入屏幕的预设手势生成控制点,所述控制点与屏幕的至少一个预设区域关联;终端浏览器获取输入屏幕的对所述控制点的操作手势,并根据所述操作手势生成与所述控制点所处的预设区域对应的应用界面。本发明突破了传统界面操作方式,在不占用屏幕可视空间的基础上的实现通过手势控制界面,使得移动设备应用界面的布局更加自由。

Description

通过手势控制应用界面的方法、 装置和移动终端 技术领域 本发明涉及移动通信技术领域, 更为具体地, 涉及一种通过手势控制应用界面的 方法、 装置和移动终端。 背景技术 随着社会的进步和技术的发展, 人们越来越多地使用移动终端并以无线的方式接 入网络来进行网页浏览、 媒体播放、 用户交互、 即时通信、 游戏等体验, 这些体验需 要频繁地对应用界面进行关闭、 切换以及在应用界面内进行选择、 翻页、 前进、 后退 等操作。 传统的关闭、 新建、 切换窗口 (或者应用界面) 方法多为用户点击物理按钮或者 虚拟按钮(控件)来进行对应的控制操作, 而对某些应用软件尤其是阅读类软件而言, 在移动终端的应用中, 由于终端本身的限制, 屏幕的空间十分宝贵, 用户不希望有任 何多余的控件遮挡阅读区域, 但是移动终端大屏幕的设计要求又导致控件必须占用有 限的屏幕空间。 这就产生了一个矛盾, 用户需要大面积的可视空间, 又需要有便捷、 个性化的操作按钮。 传统的用户界面能提供给用户自由定制的空间有限, 用户不能根据自己的喜好来 决定操作界面。 在这种移动终端越来越成为人们沟通、 获取信息、 娱乐的重要工具的 今天, 这种矛盾已经逐渐影响到了用户和移动终端之间的人机交互性。 发明内容 鉴于上述问题,本发明的目的是提供一种通过屏幕输入手势控制应用界面的方法、 装置和移动终端。 根据本发明的一个方面, 提供了一种通过手势控制应用界面的方法, 包括: 终端浏览器获取输入屏幕的生成控制点的预设手势; 根据输入屏幕的预设手势生成控制点, 所述控制点与屏幕的至少一个预设区域关 联; 终端浏览器获取输入屏幕的对所述控制点的操作手势, 并根据所述操作手势生成 与所述控制点所处的预设区域对应的应用界面。 其中, 优选地, 所述控制点为一个半透明的、 浮动在应用界面之上的区域控件, 并且所述控制点在屏幕上基于手指的拖动操作而移动。 其中, 优选地, 每一预设区域分别对应一个或者一组应用界面操作。 其中, 优选地, 根据所述操作手势生成与所述控制点所处的预设区域对应的应用 界面包括: 当所述控制点处于或者移动至所述预设区域时转变为与所述预设区域对应 的应用界面操作控件。 此外, 优选地, 预设区域与对应的应用界面操作包括以下至少一项: 设置在屏幕顶端的预设区域对应所述应用界面的标题栏操作; 设置在屏幕底端的预设区域对应所述应用界面的菜单栏操作; 设置在屏幕中央位置的预设区域对应所述应用界面的高级菜单操作; 设置在屏幕左侧或者右侧中央位置的预设区域对应所述应用界面的页面翻页操 作。 此外, 优选地, 每一预设区域对应的应用界面操作中均包括将所述应用界面操作 控件还原为自由控制点的操作, 所述应用界面操作控件响应用户的预设输入还原为控 制点。 此外, 优选地, 通过另一预设手势或者与所述生成控制点的预设手势相反的手势 删除当前控制点。 此外, 优选地, 所述控制点建立的位置为屏幕上所述生成控制点的预设手势开始 或者结束的位置; 并且, 所述控制点在生成或者移动后自动吸附到最近的预设区域。 根据本发明的另一方面, 提供了一种通过手势控制应用界面的装置, 包括: 输入手势获取单元, 用于获取输入屏幕的建立控制点的预设手势以及对控制点的 操作手势; 控制点生成单元, 用于根据输入屏幕的预设手势生成控制点, 所述控制点与屏幕 的至少一个预设区域关联; 控制点操作单元, 用于根据对控制点的操作手势生成与所述控制点所处的预设区 域对应的应用界面。 其中, 优选地, 所述控制点操作单元在所述控制点处于或者移动至所述预设区域 时, 将控制点转变为与所述预设区域对应的应用界面操作控件。 此外, 优选地, 所述控制点生成单元生成控制点的位置为屏幕上生成控制点的预 设手势开始或者结束的位置; 所述控制点操作单元在所述控制点生成或者移动后将所 述控制点自动吸附到最近的预设区域; 以及, 所述控制点操作单元通过另一预设手势 或者与所述建立控制点的预设手势相反的手势删除当前控制点。 再一方面, 本发明还提供一种包括上述通过手势控制应用界面的装置的触摸屏移 动终端。 根据本发明的通过屏幕手势控制应用界面的方法及装置, 能够突破了传统界面操 作方式, 在不占用屏幕可视空间的基础上的实现通过手势控制界面, 使得移动设备应 用界面的布局更加自由, 操作也更加灵活, 直观, 从而提高用户在利用移动终端进行 网页浏览、 媒体播放、 用户交互、 即时通信、 游戏时的体验。 为了实现上述以及相关目的, 本发明的一个或多个方面包括后面将详细说明并在 权利要求中特别指出的特征。 下面的说明以及附图详细说明了本发明的某些示例性方 面。 然而, 这些方面指示的仅仅是可使用本发明的原理的各种方式中的一些方式。 此 夕卜, 本发明旨在包括所有这些方面以及它们的等同物。 附图说明 构成本申请的一部分的附图用来提供对本发明的进一步理解, 本发明的示意性实 施例及其说明用于解释本发明, 并不构成对本发明的不当限定。 在附图中: 图 1为根据本发明实施例的通过手势控制应用界面的方法的流程图; 图 2a和图 2b分别为根据本发明实施例的移动终端上的自由控制点以及自由控制 点的固定停靠区域示意图; 图 3a、 图 3b、 图 3c、 图 3d分别为根据本发明实施例的固定停靠区域与对应的应 用界面操作示意图; 图 4a、 图 4b分别为根据本发明实施例的建立和删除自由控制点的示意图; 以及 图 5为根据本发明实施例的通过手势控制应用界面的装置的方框示意图。 在所有附图中相同的标号指示相似或相应的特征或功能。 具体实施方式 需要说明的是, 在不冲突的情况下, 本申请中的实施例及实施例中的特征可以相 互组合。 下面将参考附图并结合实施例来详细说明本发明。 为了克服传统的屏幕控件遮挡阅读区域给用户造成的视觉上的不便性, 本发明实 施例通过用户的屏幕输入手势来直接对移动终端的应用界面进行组合操作控制, 以突 破传统的应用界面操作方式, 使得移动终端界面的布局更加自由。 基于这种屏幕输入 手势的应用控制要求, 本发明实施例的方法所应用的移动终端为具有触摸屏的移动终 端或其他设备。 为了实现本发明实施例的通过手势组合控制应用界面的目的, 首先引入控制点的 概念, 该控制点可以为一个半透明的、 浮动在应用界面之上的区域控件, 该控制点通 过某一设定的屏幕输入手势建立和删除, 该手势可以自由定义。 控制点建立以后可以 通过手指拖动, 能停靠于屏幕设定的至少一个预设区域, 每一预设区域分别对应一个 或者一组操作。控制点停靠在不同的预设区域,将转变为该预设区域指定的操作面板, 通过操作面板就可以执行对应的一个或者一组操作。 另外, 由于预设区域是在屏幕上预设的控制点停靠区域, 因此, 在本发明实施例 的描述中, 预设区域又被称为固定停靠区域。 因此, 为了最大化地利用屏幕的可视空间, 首先, 需要在屏幕上预设至少一个预 设区域, 每一预设区域对应一个或者一组应用界面操作; 然后, 定义控制点, 该控制 点被定义为响应用户输入的预设的屏幕输入手势建立的区域控件, 并且控制点在屏幕 上基于手指的拖动操作而移动; 定义好控制点之后, 关联上述预设区域与控制点, 其 中,当控制点处于或者移动至预设区域时转变为该预设区域对应的应用界面操作控件, 应用界面操作控件还可以响应用户的设定输入还原为自由控制点。 图 1为根据本发明实施例的通过手势控制应用界面的方法的流程图。 如图 1所示, 当用户需要通过手势对终端屏幕显示的内容进行操作控制的时候, 首选需要通过终端屏幕输入预设手势, 终端浏览器获取输入屏幕的生成控制点的预设 手势 (步骤 S110); 然后根据输入屏幕的预设手势生成控制点, 该控制点与屏幕的至 少一个预设区域关联 (步骤 S120); 生成控制点之后, 继续对控制点进行操作, 终端 浏览器获取输入屏幕的对控制点的操作手势 (步骤 S130), 然后根据该操作手势生成 与该控制点所处的预设区域对应的应用界面 (步骤 S140)。 这样, 就可以通过预设的屏幕输入手势建立控制点, 通过控制点的建立以及拖拽 到预设区域, 让控制点转变为当前应用界面的固定的操作面板。 具体地, 作为示例, 图 2a和图 2b分别为移动终端上的控制点以及控制点的预设 区域示意图。在图 2a中, 控制点为一个圆形的按钮形状, 也可以根据用户的个人喜好 设计为其他形状(如手形、 心形或者动物形状等), 但一般是半透明的, 以保证不影响 其所处位置的屏幕的正常显示内容。控制点浮动在应用界面之上, 以便于用户的移动。 在图 2b中,条纹区域为预设区域,控制点可以被手指拖动停靠于屏幕设定的预设区域。 图 3a〜图 3d分别示出了根据本发明实施例的预设区域与对应的应用界面操作示 意图, 当控制点处于或移动至该预设区域时, 就会转变为该预设区域对应的应用界面 操作控件。 另外, 还可以设定应用界面操作控件响应用户的预设输入还原为控制点。 如图 3a所示, 设置在屏幕右侧(也可以是左侧)中央位置的固定停靠区域对应所 述应用界面的页面翻页操作; 如图 3b所示, 设置在屏幕底端的固定停靠区域对应所述 应用界面的菜单栏操作; 如图 3c所示, 设置在屏幕顶端的固定停靠区域对应所述应用 界面的标题栏操作; 如图 3d所示, 设置在屏幕中央位置的固定停靠区域对应所述应用 界面的高级菜单操作。 需说明的是, 上述仅仅是举例说明并不局限于此, 预设区域与 对应的应用界面操作可以根据需要进行设置。 在本发明的一个具体实施方式中, 建立控制点的预设的屏幕输入手势为如图 4a 所示的手指在屏幕上从左到右划出 "U"的弧线, 控制点建立的位置为屏幕上 "U"的弧线 的终点位置, 即建立控制点的预设的屏幕输入手势结束的位置。 当然, 也可以定义其他建立控制点的屏幕输入手势, 如画 S形弧线、画三角形等, 由用户根据需要设定, 控制点建立的位置也可以是预设的屏幕输入手势开始的位置。 在同一个屏幕, 允许限定数量内的复数个控制点存在, 以方便用户的应用界面操作。 删除一个控制点的操作可以通过另一预设的屏幕输入手势或者与建立控制点的预 设的屏幕输入手势相反的手势实现, 图 4b所示为通过与图 4a所示建立控制点的手势 相反的手势删除该控制点的手势示意图, 如图 4b所示, 点住控制点, 从右到左, 反向 划出" U"的弧线, 将删除当前控制点。 若前述是从右到左划出" U"的弧线表示建立, 则 此时可以是从左到右划出" U"的弧线表示删除。 固定的操作面板能和控制点相互转变, 应用界面操作控件还原为控制点的设定输 入可以有多种形式, 比如, 可以在每一固定停靠区域对应的应用界面操作中设置将该 应用界面操作控件还原为控制点的操作, 也可以双击或者长按当前应用界面操作控件 以将其还原成控制点。 为了提高对控制点的操作效率, 在关联固定停靠区域与控制点时, 还可以使控制 点在建立或者移动后自动吸附到最近的固定停靠区域。 通过上述示例可以看出, 本发明实施例的这种通过屏幕输入手势控制应用界面的 方法能够使用户本方法将突破传统界面操作方式, 在不影响屏幕正常内容显示的基础 上以直观、便捷的操作方式进行应用界面的控制,使得移动设备界面的布局更加自由, 屏幕的浏览利用率达到最大。 如上描述了根据本发明实施例的通过手势控制应用界面的方法。 本发明实施例的 上述通过手势控制应用界面的方法, 可以采用软件实现, 也可以采用硬件实现, 或采 用软件和硬件组合的方式实现。 图 5示出了根据本发明实施例的通过手势控制应用界面的装置 500的方框示意图。 如图 5所示, 通过屏幕输入手势控制应用界面的装置 500包括输入手势获取单元 510、 控制点生成单元 520和控制点操作单元 530。 其中, 输入手势获取单元 510用于获取 输入屏幕的建立控制点的预设手势以及对控制点的操作手势; 控制点生成单元 520用 于根据输入屏幕的预设手势生成控制点, 该控制点与屏幕的至少一个预设区域关联; 控制点操作单元 530用于根据对控制点的操作手势生成与所述控制点所处的预设区域 对应的应用界面。 该装置 500包括处理器, 该处理器 500用于执行上述各个单元的功能。 其中, 在本发明的一个具体实施方式中, 控制点操作单元 530在所述控制点处于 或者移动至所述预设区域时, 将控制点转变为与所述预设区域对应的应用界面操作控 件。 其中, 在本发明的一个具体实施方式中, 控制点生成单元 520生成控制点的位置 为屏幕上生成控制点的预设手势开始或者结束的位置; 所述控制点操作单元在所述控 制点生成或者移动后将所述控制点自动吸附到最近的预设区域; 控制点操作单元 530 通过另一预设手势或者与所述建立控制点的预设手势相反的手势删除当前控制点 (如 图 4所示)。 需说明的是, 上述各单元的更具体实施方式, 可以参见方法流程中的描述, 此处 不再赘述。 再一方面, 本发明实施例还提供了一种包括前述通过手势控制应用界面的装置的 触摸屏移动终端。 本发明实施例提供的通过手势控制应用界面的方法可以在该移动终 端上执行。 用于执行本发明实施例的通过手势控制应用界面的方法的程序可以存储在计算机 存储介质中。 因而, 本发明实施例还提供了一种计算机存储介质, 该计算机存储介质 存储有用于执行本发明实施例的通过手势控制应用界面的方法的程序。 此外, 典型地, 本发明所述的移动终端可为各种手持终端设备, 例如手机、 个人 数字助理 (PDA) 等, 因此本发明的保护范围不应限定为某种特定类型的移动终端。 此外, 根据本发明的方法还可以被实现为由 CPU执行的计算机程序。在该计算机 程序被 CPU执行时, 执行本发明的方法中限定的上述功能。 此外, 上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实 现上述步骤或单元功能的计算机程序的计算机可读存储设备实现。 此外, 应该明白的是, 本文所述的计算机可读存储设备 (例如, 存储器) 可以是 易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。 作为例子而非限制性的, 非易失性存储器可以包括只读存储器(ROM)、 可编程 ROM (PROM)、 电可编程 ROM (EPROM)、 电可擦写可编程 ROM (EEPROM)或快闪存 储器。 易失性存储器可以包括随机存取存储器(RAM), 该 RAM可以充当外部高速缓 存存储器。 作为例子而非限制性的, RAM 可以以多种形式获得, 比如同步 RAM (DRAM)、动态 RAM (DRAM)、同步 DRAM ( SDRAM )、双数据速率 SDRAM (DDR SDRAM )、增强 SDRAM (ESDRAM)、同步链路 DRAM ( SLDRAM)以及直接 Rambus RAM (DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的 存储器。 本领域技术人员还将明白的是, 结合这里的公开所描述的各种示例性逻辑块、 单 元、 电路和算法步骤可以被实现为电子硬件、 计算机软件或两者的组合。 为了清楚地 说明硬件和软件的这种可互换性, 已经就各种示意性组件、 方块、 单元、 电路和步骤 的功能对其进行了一般性的描述。 这种功能是被实现为软件还是被实现为硬件取决于 具体应用以及施加给整个系统的设计约束。 本领域技术人员可以针对每种具体应用以 各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明的范围。 结合这里的公开所描述的各种示例性逻辑块、 单元和电路可以利用被设计成用于 执行这里所述功能的下列部件来实现或执行: 通用处理器、 数字信号处理器 (DSP)、 专用集成电路 (ASIC)、 现场可编程门阵列 (FPGA) 或其它可编程逻辑器件、 分立门 或晶体管逻辑、 分立的硬件组件或者这些部件的任何组合。 通用处理器可以是微处理 器, 但是可替换地, 处理器可以是任何传统处理器、 控制器、 微控制器或状态机。 处 理器也可以被实现为计算设备的组合, 例如, DSP和微处理器的组合、多个微处理器、 一个或多个微处理器结合 DSP核、 或任何其它这种配置。 结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、 由处理器执 行的软件单元中或这两者的组合中。 软件单元可以驻留在 RAM存储器、 快闪存储器、 ROM存储器、 EPROM存储器、 EEPROM存储器、寄存器、硬盘、可移动盘、 CD-ROM、 或本领域已知的任何其它形式的存储介质中。 示例性的存储介质被耦合到处理器, 使 得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中, 所述存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在 ASIC中。 ASIC 可以驻留在用户终端中。 在一个替换方案中, 处理器和存储介质可以作为分立组件驻 留在用户终端中。 在一个或多个示例性设计中, 所述功能可以在硬件、 软件、 固件或其任意组合中 实现。 如果在软件中实现, 则可以将所述功能作为一个或多个指令或代码存储在计算 机可读介质上或通过计算机可读介质来传送。 计算机可读介质包括计算机存储介质和 通信介质, 该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何 介质。 存储介质可以是能够被通用或专用计算机访问的任何可用介质。 作为例子而非 限制性的, 该计算机可读介质可以包括 RAM、 ROM、 EEPROM CD-ROM或其它光 盘存储设备、 磁盘存储设备或其它磁性存储设备, 或者是可以用于携带或存储形式为 指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器 访问的任何其它介质。 此外, 任何连接都可以适当地称为计算机可读介质。 例如, 如 果使用同轴线缆、 光纤线缆、 双绞线、 数字用户线路 (DSL) 或诸如红外线、 无线电 和微波的无线技术来从网站、 服务器或其它远程源发送软件, 则上述同轴线缆、 光纤 线缆、 双绞线、 DSL或诸如红外先、 无线电和微波的无线技术均包括在介质的定义。 如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、 软盘、 蓝光盘, 其中磁盘通常磁性地再现数据, 而光盘利用激光光学地再现数据。 上 述内容的组合也应当包括在计算机可读介质的范围内。 尽管前面公开的内容示出了本发明的示例性实施例, 但是应当注意, 在不背离权 利要求限定的本发明的范围的前提下, 可以进行多种改变和修改。 根据这里描述的发 明实施例的方法权利要求的功能、 步骤和 /或动作不需以任何特定顺序执行。 此外, 尽 管本发明的元素可以以个体形式描述或要求, 但是也可以设想多个, 除非明确限制为 单数。 如上参照附图以示例的方式描述根据本发明实施例的通过手势控制应用界面的方 法和装置。 但是, 以上所述仅为本发明的优选实施例而已, 并不用于限制本发明, 对 于本领域的技术人员来说, 本发明可以有各种更改和变化。 凡在本发明的精神和原则 之内, 所作的任何修改、 等同替换、 改进等, 均应包含在本发明的保护范围之内。

Claims

权 利 要 求 书 、 一种通过手势控制应用界面的方法, 包括:
终端浏览器获取输入屏幕的生成控制点的预设手势;
根据所述预设手势生成所述控制点, 所述控制点与所述屏幕的至少一个预 设区域关联;
所述终端浏览器获取输入屏幕的对所述控制点的操作手势, 并根据所述操 作手势生成与所述控制点所处的预设区域对应的应用界面。 、 根据权利要求 1所述的通过手势控制应用界面的方法, 其中, 所述控制点为一 个半透明的、 浮动在所述应用界面之上的区域控件, 并且所述控制点在屏幕上 基于手指的拖动操作而移动。 、 根据权利要求 1所述的通过手势控制应用界面的方法, 其中, 每一预设区域分 别对应一个或者一组应用界面操作。 、 根据权利要求 3所述的通过手势控制应用界面的方法, 其中, 根据所述操作手 势生成与所述控制点所处的预设区域对应的应用界面包括:
当所述控制点处于或者移动至所述预设区域时转变为与所述预设区域对应 的应用界面操作控件。 、 根据权利要求 4所述的通过手势控制应用界面的方法, 其中, 所述预设区域与 对应的所述应用界面操作包括以下至少一项:
设置在所述屏幕顶端的所述预设区域对应所述应用界面的标题栏操作; 设置在所述屏幕底端的所述预设区域对应所述应用界面的菜单栏操作; 设置在所述屏幕中央位置的所述预设区域对应所述应用界面的高级菜单操 作;
设置在所述屏幕左侧或者右侧中央位置的所述预设区域对应所述应用界面 的页面翻页操作。 、 根据权利要求 5所述的通过手势控制应用界面的方法, 其中, 每一预设区域对 应的所述应用界面操作中均包括将所述应用界面操作控件还原为控制点的操 作, 所述应用界面操作控件响应用户的预设输入还原为控制点。 、 根据权利要求 1所述的通过手势控制应用界面的方法, 其中, 通过另一预设手 势或者与所述生成控制点的预设手势相反的手势删除当前控制点。 、 根据权利要求 1所述的通过手势控制应用界面的方法, 其中,
所述控制点建立的位置为所述屏幕上所述生成控制点的预设手势开始或者 结束的位置; 并且,
所述控制点在生成或者移动后自动吸附到最近的预设区域。 、 一种通过手势控制应用界面的装置, 包括:
输入手势获取单元, 用于获取输入屏幕的建立控制点的预设手势以及对所 述控制点的操作手势;
控制点生成单元, 用于根据所述预设手势生成所述控制点, 所述控制点与 所述屏幕的至少一个预设区域关联;
控制点操作单元, 用于根据所述操作手势生成与所述控制点所处的预设区 域对应的应用界面。 、 根据权利要求 9所述的通过手势控制应用界面的装置, 其中, 所述控制点操作 单元用于在所述控制点处于或者移动至所述预设区域时, 将所述控制点转变为 与所述预设区域对应的应用界面操作控件。 1、 根据权利要求 9或 10所述的通过手势控制应用界面的装置, 其中,
所述控制点生成单元用于生成所述控制点的位置为所述屏幕上生成所述控 制点的所述预设手势开始或者结束的位置;
所述控制点操作单元用于在所述控制点生成或者移动后将所述控制点自动 吸附到最近的预设区域; 以及,
所述控制点操作单元通过另一预设手势或者与所述建立所述预设手势相反 的手势删除当前控制点。 、 一种触屏移动终端,包括如权利要求 9至 11中任一项所述的通过手势控制应用 界面的装置。 、 一种计算机存储介质, 存储有用于执行权利要求 1至 8中任一项所述的通过手 势控制应用界面的方法的程序。
PCT/CN2013/073799 2012-04-06 2013-04-07 通过手势控制应用界面的方法、装置和移动终端 WO2014005445A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/379,512 US9830072B2 (en) 2012-04-06 2013-04-07 Method, apparatus and mobile terminal for controlling an application interface by means of a gesture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210099842.8 2012-04-06
CN201210099842.8A CN102681774B (zh) 2012-04-06 2012-04-06 通过手势控制应用界面的方法、装置和移动终端

Publications (1)

Publication Number Publication Date
WO2014005445A1 true WO2014005445A1 (zh) 2014-01-09

Family

ID=46813777

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/073799 WO2014005445A1 (zh) 2012-04-06 2013-04-07 通过手势控制应用界面的方法、装置和移动终端

Country Status (3)

Country Link
US (1) US9830072B2 (zh)
CN (1) CN102681774B (zh)
WO (1) WO2014005445A1 (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681774B (zh) 2012-04-06 2015-02-18 优视科技有限公司 通过手势控制应用界面的方法、装置和移动终端
CN103677614B (zh) * 2012-09-26 2018-08-28 腾讯科技(深圳)有限公司 一种浏览器手势操作方法及装置
CN103777881B (zh) * 2012-10-24 2018-01-09 腾讯科技(深圳)有限公司 一种触控设备页面控制方法及系统
CN103019585B (zh) * 2012-11-15 2016-06-22 中兴通讯股份有限公司 触摸屏的单点控制方法、装置及移动终端
CN103019601B (zh) * 2012-12-18 2015-12-23 天津三星通信技术研究有限公司 一种触控终端显示界面的操作控制方法及其触控终端
CN102999269B (zh) * 2012-12-26 2016-08-17 东莞宇龙通信科技有限公司 终端和终端操控方法
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
CN104102420B (zh) * 2013-04-01 2018-03-13 腾讯科技(深圳)有限公司 用户终端控制界面控件的方法及用户终端
CN104679485A (zh) * 2013-11-28 2015-06-03 阿里巴巴集团控股有限公司 页面元素的控制方法及装置
CN104932769B (zh) * 2014-03-20 2021-02-09 腾讯科技(深圳)有限公司 一种网页显示方法及装置
CN105320417B (zh) * 2014-07-25 2020-09-11 腾讯科技(深圳)有限公司 页面切换方法及客户端
CN104346039A (zh) * 2014-08-06 2015-02-11 深圳市金立通信设备有限公司 一种终端
CN105511772B (zh) * 2014-09-22 2019-03-15 北大方正集团有限公司 通过手势操作触发触摸屏上按钮的方法、装置及移动终端
CN105511771A (zh) * 2014-09-22 2016-04-20 宇龙计算机通信科技(深圳)有限公司 一种快捷操作方法、装置和终端
KR20160063875A (ko) * 2014-11-27 2016-06-07 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102320072B1 (ko) * 2015-01-16 2021-11-02 삼성전자 주식회사 전자 장치 및 전자 장치의 정보 공개 제어 방법
CN104571925B (zh) * 2015-01-27 2018-03-30 努比亚技术有限公司 移动终端的单手操作方法及装置
CN106681582A (zh) * 2015-11-09 2017-05-17 西安中兴新软件有限责任公司 一种桌面图标调整方法和装置
US10761714B2 (en) * 2015-11-23 2020-09-01 Google Llc Recognizing gestures and updating display by coordinator
CN105867602A (zh) * 2015-12-08 2016-08-17 乐视致新电子科技(天津)有限公司 一种基于手势的操作组件控制方法及设备
CN105608156A (zh) * 2015-12-18 2016-05-25 北京奇虎科技有限公司 一种控制浏览器的方法及电子设备
CN105630891A (zh) * 2015-12-18 2016-06-01 北京奇虎科技有限公司 一种菜单选项的显示方法及电子设备
CN105704571A (zh) * 2016-01-15 2016-06-22 易视腾科技有限公司 互联网电视用户界面的导航控制方法
CN105549895B (zh) * 2016-02-01 2021-11-05 Oppo广东移动通信有限公司 一种应用控制方法及移动终端
CN105843404A (zh) * 2016-05-12 2016-08-10 深圳市联谛信息无障碍有限责任公司 基于读屏应用指令输入方法及装置
CN105892688A (zh) * 2016-05-12 2016-08-24 深圳市联谛信息无障碍有限责任公司 音频应用的启动方法及装置
CN105867639A (zh) * 2016-05-12 2016-08-17 深圳市联谛信息无障碍有限责任公司 基于声呐的读屏应用指令输入方法及装置
CN105843402A (zh) * 2016-05-12 2016-08-10 深圳市联谛信息无障碍有限责任公司 基于可穿戴设备的读屏应用指令输入方法及装置
DE102016212240A1 (de) * 2016-07-05 2018-01-11 Siemens Aktiengesellschaft Verfahren zur Interaktion eines Bedieners mit einem Modell eines technischen Systems
CN108664498B (zh) * 2017-03-29 2023-05-16 腾讯科技(深圳)有限公司 一种网页内容的显示方法及终端
CN107402704B (zh) * 2017-07-28 2021-06-25 努比亚技术有限公司 一种应用管理的实现方法及装置
CN107728872A (zh) * 2017-08-25 2018-02-23 深圳天珑无线科技有限公司 批量卸载应用程序的方法及终端
CN112744475B (zh) * 2019-10-29 2022-09-09 珠海一微半导体股份有限公司 垃圾桶机器人的分类控制方法、垃圾桶机器人及芯片
CN111290691A (zh) * 2020-01-16 2020-06-16 北京京东振世信息技术有限公司 用于操作页面的方法、装置、计算机设备及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101697107A (zh) * 2009-10-30 2010-04-21 青岛海信移动通信技术股份有限公司 一种触摸式移动通信终端输入字符的方法及装置
WO2011025642A1 (en) * 2009-08-31 2011-03-03 Qualcomm Incorporated User interface methods providing searching functionality
CN102037435A (zh) * 2008-05-23 2011-04-27 帕姆公司 计算装置中各种活动之间的导航
CN102243662A (zh) * 2011-07-27 2011-11-16 北京风灵创景科技有限公司 一种在移动设备上显示浏览器界面的方法
CN102681774A (zh) * 2012-04-06 2012-09-19 优视科技有限公司 通过手势控制应用界面的方法、装置和移动终端

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2739760C (en) * 2008-10-06 2016-12-06 Tat The Astonishing Tribe Ab Method for application launch and system function invocation
US20100149114A1 (en) * 2008-12-16 2010-06-17 Motorola, Inc. Simulating a multi-touch screen on a single-touch screen
JP4734435B2 (ja) * 2009-03-23 2011-07-27 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型ゲーム装置
KR101576292B1 (ko) * 2009-05-21 2015-12-09 엘지전자 주식회사 이동 통신 단말기에서의 메뉴 실행 방법 및 이를 적용한 이동 통신 단말기
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8854318B2 (en) * 2010-09-01 2014-10-07 Nokia Corporation Mode switching
BR112013014402A2 (pt) * 2010-12-10 2019-09-24 Yota Devices Ipr Ltd dispositivo móvel com interface de usuário
CN102221978A (zh) * 2011-07-15 2011-10-19 魏新成 在触摸屏手机的不同窗口区域上下拖放手指进行相应操作
CN102331910A (zh) * 2011-10-08 2012-01-25 宇龙计算机通信科技(深圳)有限公司 一种对触控显示屏的显示控制方法及装置
US20130100035A1 (en) * 2011-10-19 2013-04-25 Matthew Nicholas Papakipos Graphical User Interface Interaction Using Secondary Touch Input Device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102037435A (zh) * 2008-05-23 2011-04-27 帕姆公司 计算装置中各种活动之间的导航
WO2011025642A1 (en) * 2009-08-31 2011-03-03 Qualcomm Incorporated User interface methods providing searching functionality
CN101697107A (zh) * 2009-10-30 2010-04-21 青岛海信移动通信技术股份有限公司 一种触摸式移动通信终端输入字符的方法及装置
CN102243662A (zh) * 2011-07-27 2011-11-16 北京风灵创景科技有限公司 一种在移动设备上显示浏览器界面的方法
CN102681774A (zh) * 2012-04-06 2012-09-19 优视科技有限公司 通过手势控制应用界面的方法、装置和移动终端

Also Published As

Publication number Publication date
US9830072B2 (en) 2017-11-28
CN102681774B (zh) 2015-02-18
US20150020035A1 (en) 2015-01-15
CN102681774A (zh) 2012-09-19

Similar Documents

Publication Publication Date Title
WO2014005445A1 (zh) 通过手势控制应用界面的方法、装置和移动终端
US11163425B2 (en) User terminal apparatus and management method of home network thereof
US11592968B2 (en) User terminal apparatus and management method of home network thereof
US10564813B2 (en) User terminal apparatus and management method of home network thereof
WO2018157662A1 (zh) 一种移动终端的显示控制方法及移动终端
US9645730B2 (en) Method and apparatus for providing user interface in portable terminal
KR102084633B1 (ko) 화면 미러링 방법 및 그에 따른 소스 기기
JP2024020248A (ja) タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、デバイス、及び方法
AU2013237690B2 (en) Method and apparatus for performing preset operation mode using voice recognition
JP5363259B2 (ja) 画像表示装置、画像表示方法およびプログラム
US20130254714A1 (en) Method and apparatus for providing floating user interface
JP2019079574A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US10067666B2 (en) User terminal device and method for controlling the same
WO2013091467A1 (zh) 通过拖拽手势控制应用界面的方法和装置
KR20170076357A (ko) 사용자 단말 장치, 이의 스피커 장치의 음량을 조절하기 위한 모드 전환 방법 및 음향 시스템
JP2014511157A (ja) 複数のタッチスクリーンを有する装置及びその画面変更方法
WO2014169597A1 (zh) 文本擦除方法及装置
TW201514827A (zh) 具有動態拼圖介面的電子裝置及更新方法與系統
WO2014008789A1 (zh) 浏览器窗口的处理方法及装置
WO2014044133A1 (zh) 应用界面及控制应用界面操作的方法和装置
WO2013123796A1 (zh) 一种遥控控制方法、显示控制装置、遥控器及系统
TW201432552A (zh) 用於電子裝置的用戶介面
WO2013104155A1 (zh) 一种显示菜单的方法及终端设备
JP2018512676A (ja) テキスト選択制御への向上
KR20150141792A (ko) 전자 장치 및 전자 장치에서 아이콘 편집 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13813773

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14379512

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 12/02/2015)

122 Ep: pct application non-entry in european phase

Ref document number: 13813773

Country of ref document: EP

Kind code of ref document: A1