WO2013082896A1 - 交互方法及交互设备 - Google Patents
交互方法及交互设备 Download PDFInfo
- Publication number
- WO2013082896A1 WO2013082896A1 PCT/CN2012/072723 CN2012072723W WO2013082896A1 WO 2013082896 A1 WO2013082896 A1 WO 2013082896A1 CN 2012072723 W CN2012072723 W CN 2012072723W WO 2013082896 A1 WO2013082896 A1 WO 2013082896A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- level
- selectable object
- menu selection
- area
- selection area
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Definitions
- the embodiments of the present invention relate to the field of human-computer interaction, and in particular, to an interaction method and an interaction device. Background technique
- the embodiment of the invention provides an interactive device that meets ergonomic requirements and is convenient to operate.
- the interactive interface includes:
- An interaction device includes an interaction interface, where the interaction interface includes a display area composed of a plurality of display boundaries, wherein an angled area is generated between each two adjacent display boundaries of the plurality of display boundaries, wherein The interaction device further includes an interface interaction unit and a processing unit;
- the interface interaction unit is configured to generate two first boundaries at positions corresponding to the at least one of the corner regions, where the two first boundaries do not intersect each other in the display region Intersecting the angle of the intersection with the display boundary on both sides of the angled area, the two first boundaries and the display boundary on both sides of the angled area forming a main menu selection area, the main Optional objects are included in the menu selection area;
- the processing unit is configured to select, in the main menu selection area, the selected object to move to a position of any one of the two first boundaries, and select the selected one When the object crosses a predetermined position, the selected optional object in the main menu selection area and the predetermined optional object at the same level as the selected optional object are replaced with the predetermined and the selected The upper-level optional object or the next-level optional object associated with the optional object.
- the embodiment of the invention further provides an interactive method that is ergonomically operative and convenient to operate, and the method includes:
- the display area includes a plurality of display boundaries, and an angled area is generated between each two adjacent display boundaries, where the two first boundaries are located At positions corresponding to the at least one angled region in the display area, the two first boundaries do not intersect each other in the display area and respectively span the angled area and the sides of the angled area
- the display boundaries intersect, the two first boundaries and the display boundaries on both sides of the corner region constitute a main menu selection region;
- the embodiment of the present invention further provides an interactive device that is ergonomically operative and convenient to operate, and includes: a first display module, configured to display two first boundaries in the display area; wherein the display area includes multiple displays a boundary region between each two adjacent display boundaries, wherein the two first boundaries are located at positions corresponding to the at least one of the angled regions in the display region, The two first boundaries do not intersect each other in the display area and intersect the display boundary on both sides of the angled area across the angled area, the two first boundaries and the clip
- the display boundary on both sides of the corner area constitutes a main menu selection area;
- the second display module is configured to display an optional object in the display area, wherein the selectable object is located in the display area a first detecting module, configured to detect a first touch action occurring in the main menu selection area to acquire a position where the first touch action occurs; a first selection module, configured to The first position of the touch action occurs acquiring a first selectable object determines the touch operation is selected;
- a first touch track detecting module
- the interaction device and the interaction method provided by the embodiment of the present invention set the main menu selection at a corner of the display area, and present an optional object in the main menu selection area for the user to select, and the optional object can be used for After being selected, moving toward the first boundary of the main menu selection area to achieve replacement and selection of the upper-level selectable object or the next-level selectable object of the selected optional object, so that the user can pass the thumb
- the target object is simply and quickly selected and operated, so that the entire interactive interface, the interaction method and the interaction device meet the ergonomic design requirements, thereby facilitating the user to realize the simple, easy and fast through the interaction interface, the interaction method and the interaction device. Interaction. DRAWINGS
- FIG. 1 is a block diagram of an interaction device that carries and implements the present invention
- FIG. 2 is a block diagram of a system architecture of the interaction device 100 of FIG. 1;
- FIGS. 4, 4A and 4B are an interactive interface and an interactive manner provided by an embodiment of the present invention
- FIGS. 5 and 5A are implementations of the present invention
- An interactive interface and interaction method provided by the example
- 6 and 6A are an interaction interface and an interaction mode according to an embodiment of the present invention
- 7 and 7A are an interaction interface and an interaction mode according to an embodiment of the present invention
- FIG. 8 is an interactive interface provided by an embodiment of the present invention.
- FIG. 17 is an interactive device according to an embodiment of the present invention.
- FIG. 18 is an interactive device according to another embodiment of the present invention.
- FIG. 19 is an interactive device according to another embodiment of the present invention.
- the interaction device 100 may be a tablet computer, a personal digital assistant, a cellular phone, a network home appliance, a camera, a smart phone, an enhanced general packet radio service (EGPRS) mobile phone, a network base station, a media player, a navigation device, an email
- a data processing device such as a device, a game control center, an electronic photo frame, a data card, or the like, or a combination of any two or more of these data processing devices or other data processing devices.
- the interactive device 100 includes a touch sensitive display 102.
- the touch sensitive display 102 can be a liquid crystal display (LCD) technology, a light emitting diode (LPD) technology, a carbon nanotube display, or some other display technology.
- the touch sensitive display 102 can be a device that integrates a set display and touch response that is sensitive to user touch and/or tactile contact.
- the touch sensitive display 102 can include a multi-touch sensitive response, the multi-touch sensitive response being that the touch sensitive display 102 can process a plurality of simultaneous touch points, including processing pressure and area with each touch point And/or location-related data, such multi-touch functionality facilitates interaction with the interactive device 100 using gestures or actions of multiple fingers.
- the interactive device 100 can display one or more graphical user interfaces on the touch-sensitive display 102 for providing users with access to various system objects and for communicating information to the user.
- Graphic user The interface can include one or more selectable objects, ie display objects.
- the display object provides the user with an entry to enable a function by means of an image, the optional object including device functions, applications, windows, files, alarms, events, or other identifiable system objects.
- the interaction device 100 can implement a plurality of device functions, such as a telephone device, an email device, a network data communication device, a Wi-Fi base station device, and a media processing device.
- a particular display object can be displayed in a menu bar of a user interface.
- the device functionality can be accessed from a top-level graphical user interface, such as by touching a function corresponding to the device.
- a top-level graphical user interface such as by touching a function corresponding to the device.
- the graphical user interface of the interactive device 100 is changed, or is expanded or replaced with another user interface or user interface element to assist the user. Access and operation of specific functions associated with corresponding device functions.
- a graphical user interface of touch-sensitive display 102 can present display objects related to various telephony functions; likewise, touching an email object can cause the graphical user interface to present a display related to various email functions The object; the touch network object can cause the graphical user interface to present a display object related to browsing the web page function; and touching the media player object can cause the graphical user interface to present display objects related to various media processing functions.
- the top-level graphical user interface environment or state of FIG. 1 may be restored by pressing a button 120 located near the bottom of the interactive device 100.
- each corresponding device function may have a corresponding "home interface” display object displayed on the touch-sensitive display 102, and the graphical user interface environment of FIG. 1 may be displayed by pressing the "main interface” The object is to be restored.
- the top-level graphical user interface of the interactive device 100 may include additional display objects 106, such as For example, Short Message Service (SMS) objects, calendar objects, photo objects, camera objects, calculator objects, stock objects, weather objects, map objects, note objects, clock objects, address book objects, and setting objects. Touching the map object, for example, can invoke map rendering and location-based service environments and support functions; likewise, selecting any display object 106 can invoke the corresponding object environment and functionality.
- SMS Short Message Service
- the system architecture 200 of the interaction device 100 may include a memory interface 202 , one or more data processors, an image processor, and/or a central processing unit 204 . And a peripheral interface 206.
- the memory interface 202, the one or more processors 204, and/or the peripheral interface 206 can be separate components or can be integrated into one or more integrated circuits.
- the various components of the system architecture 200 can be connected by one or more communication buses or signal lines. Sensors, devices, and subsystems can be coupled to peripheral interface 206 to assist in implementing the various functions that the interactive device has.
- the motion sensor 210, the light sensor 212, and the position sensor 214 can be coupled to the peripheral interface 206 to assist in implementing the interactive device with respect to the motion sensing function, the ambient brightness sensing function, and the position sensing equivalent. Collaborate to accomplish specific functions.
- Other auxiliary sensors 216 can also be coupled to peripheral interface 206, such as a positioning system (eg, a GPS receiver), a temperature sensor, a biometric metering sensor, a barometric sensor, an altitude sensor, to assist Completing various related functions of the interactive device.
- the system architecture 200 of the interactive device 100 further includes a camera subsystem 220 that assists the camera through a light sensor 212 such as a charge coupled device CCD or a complementary metal oxide semiconductor CMOS optical sensor.
- the subsystem implements the corresponding image acquisition function.
- the system architecture 200 of the interaction device 100 further includes a wireless communication subsystem 224 for enabling the interaction device to have wireless communication functions, and the wireless communication subsystem 224 can include a radio frequency receiver. And transmitters and/or optical (eg, red and white) receivers and transmitters.
- An audio subsystem 226 is also included in the system architecture of the interaction device 100.
- the audio subsystem 226 is configured to implement a function of sound pickup or audio signal playback of the interactive device.
- the audio subsystem 226 includes a speaker 228 and a microphone 230 to assist in implementing the voice pickup and audio signal playback functions described above.
- the I/O subsystem 240 is further included in the system architecture of the interaction device 100, and the I/O subsystem 240 is configured to enable the interaction device 100 to implement input and output control.
- the I/O subsystem 240 can include a touch screen controller 242 and/or other input controller(s) 244.
- Touch screen controller 242 can be coupled to touch screen 246.
- Touch screen 246 and touch screen controller 242 can detect touch and movement or interruption of touch using any of a variety of touch sensitive technologies including, but not limited to, capacitive, resistant, infrared, and surface acoustic waves. Techniques, as well as other proximity sensing arrays or other components for utilizing touch screen 246 to determine one or more touch points.
- the input controller 244 can be coupled to other input/control devices 248, which can be one or more buttons, a rocker switch, a thumb rotary switch, an infrared port, a USB port, and/or a stylus such as a stylus Such sorting equipment.
- the touch screen 246 can also be used to present virtual buttons and/or keyboards to enable input control of the interactive device.
- the memory interface 202 of the system architecture 200 of the interactive device 100 can be coupled to the memory 250.
- Memory 250 can be a high speed random access memory and/or a non-volatile memory, such as one or more magnetic disk storage devices, one or more optical storage devices and/or flash memory.
- the memory can store an operating system 252, which can include instructions for processing basic system services and for performing hardware dependent tasks.
- the memory 250 may also store a plurality of executable programs, which may be a music player 254, a web browser 256, an image processing program 258, a voice communication program 260, a short message communication program 262, a file index/find Program 264, graphical user interface generation program 266, or other applications having various functions.
- a plurality of executable programs which may be a music player 254, a web browser 256, an image processing program 258, a voice communication program 260, a short message communication program 262, a file index/find Program 264, graphical user interface generation program 266, or other applications having various functions.
- a music player 254 may also store a plurality of executable programs, which may be a music player 254, a web browser 256, an image processing program 258, a voice communication program 260, a short message communication program 262, a file index/find Program 264, graphical user interface generation program 266, or other applications having various functions.
- an exemplary interactive device carrying the interactive interface and interaction method of the present invention is introduced
- an interaction interface 300 of an interaction device 100 is provided by a program 266.
- the interaction interface 300 is used to display various systems of the 100 by visualizing an object.
- the functions and/or application functions are presented to the user, and the system functions or application functions include, but are not limited to, the functions of the various programs stored in the memory 250. It can be understood that the interactive device 100 in the present invention passes one or more physical components and one or more of the above.
- the implementation of the interaction between the interaction interface 300 and the interaction device 100 is not specifically limited.
- the physical components of the interaction interface 300 are involved in the implementation.
- An executable program or a combination of physical elements and executable programs is defined as an interface interaction unit through which physical elements, executable programs, or physical elements that interact with the interaction device 100 are implemented.
- the combination of executive programs is defined as a processing unit.
- the interactive interface 300 of the present invention includes a display area 304 composed of a plurality of display boundaries 302, wherein an adjacent corner display area 302 of the plurality of display boundaries 302 is formed with an angled area 306; At least one of the angled regions 306 corresponding to the display area 304 Two first boundaries 310 are generated at the locations, and the two first boundaries 310 do not intersect each other in the display area 304 and respectively span the angled area 306 and the sides of the angled area 306 The display boundaries 302 intersect.
- the two first boundaries 310 and the display boundaries 302 on both sides of the corner region 306 constitute a main menu selection region 308.
- the main menu selection area 308 includes an optional object 312, wherein the processing unit is configured to be used in the two first boundaries 310 of the selectable object 312 for being selected and toward the main menu selection area 308.
- the processing unit is configured to be used in the two first boundaries 310 of the selectable object 312 for being selected and toward the main menu selection area 308.
- the selected selectable object 312 in the main menu selection area 308 and the predetermined and the The selectable object with the selected optional object 312 at the same level is replaced with a predetermined upper-level selectable object 316 or a lower-level selectable object 318 associated with the selected selectable object 312.
- the display area 304 is all or part of the interactive interface 300.
- the display interface 302 of the display area 304 is the boundary of the interactive interface 300.
- the display interface 302 of the display area 304 is the boundary of the interactive interface 300.
- the boundary of the interactive interface 300 is an edge of the touch screen
- the boundary of the display area 304 is the edge of the touch screen.
- a portion of the interactive interface 300 is used to present a graphical display object, and another portion is used as an operating area, such as a character input keyboard or a phone number dialing key, etc.
- the display area 304 Only a portion of the interactive interface 300 is occupied, and the display area 304 is surrounded by a line or curved display boundary 302 defined along the horizontal and vertical coordinates of the interactive interface 300.
- the display area 304 includes a finite strip display border 302, such as a rectangle comprising four display borders 302, or a triangle comprising three borders 302, or a multi-deformation comprising five or six display borders 302, in which case
- the angled region will be generated between adjacent display boundaries 302 306.
- the display area 304 is a rectangle including four display boundaries 302, and the display area 304 coincides with the bottom boundary of the interactive interface 300.
- the angled area 306 between the adjacent two display boundaries 302 of the display area 304 is most easily touched when the user performs a thumb operation.
- the location of the main menu selection area 308 at this location will greatly facilitate the operation of the user, i.e., the optional object 314 in the main menu selection area main menu 308 operates, such an actual
- the method is more in line with the user's ergonomic design, and the position of the main menu selection area 308 is easier for the user to acquire and operate, and the user's limb fatigue and damage are not caused by long-term operation.
- the display area 304 can be arbitrarily set according to personal usage habits and preferences.
- the main menu selection area 308 is generated in the corner area 306, and the main menu selection area 308 is used to graphically display a plurality of objects to be selected to the user, that is, in the main menu selection area.
- An optional object 312 is included within 308.
- the main menu selection area 308 may be stripe, that is, the main menu selection area 308 includes two first boundaries 310, and the two first boundaries 310 of the main menu selection area 308 are The display areas 304 do not intersect each other and intersect the display boundary 302 on both sides of the angled area 306 after crossing the angled area 306, respectively.
- the two first boundaries 310 and the display boundaries 302 that intersect the two first boundaries 310 together form the main menu selection area 308.
- the first boundary 310 may be a straight line or a curved shape, and the curved shape is an arc shape as a preferred embodiment.
- the main menu selection area 208 can also be set to various specific shapes according to the preference of the user, such as a step shape or a spiral shape.
- the optional object 312 is contained within the main menu selection area 308 for presenting various system resources, file resources, or executable program entries to the user in a graphical manner.
- the system resource may be a memory configuration of the interaction device 100, a power source, a brightness of the display, a volume, a state of the wireless communication device, and the like, and resources supporting the operation of the interaction device 100 to implement various functions.
- the file resource may refer to various data stored in the memory 250, such as video files, documents, pictures, music, contacts, and the like.
- the executable program may be the music player 254, the web browser 256, the image processing program 258, the voice communication program 260, the short message communication program 262, the file index/find program 264, and the graphical user interface generation program 266. Or other applications with various features.
- the optional object 312 can be used to activate a function corresponding to the selectable object 312 after being selected, such as opening a configuration interface of various system resources of the interactive device 100, and accessing various data stored in the memory 250. Or execute various corresponding programs.
- the optional object 312 may be an object located in an intermediate position in a hierarchical architecture, the factor having an optional object of a higher level, and an optional object of the next level,
- the optional object 312 of the hierarchical structure When the optional object 312 of the hierarchical structure is used, the corresponding optional object needs to be searched in a step-by-step manner or in a step-by-step manner.
- the preferred embodiment of the present invention is selected and moved in different directions. To determine that the upper-level selectable object or the next-level selectable object of the optional object 312 is obtained at this time, specifically, referring to FIG. 3A and FIG.
- the optional object 312 is used to be selected and directed to the main The position of any one of the two first boundaries 310 of the menu selection area 308 is moved and when the selected optional object 312 crosses a predetermined position to select the selected optional object 312 And the selectable object 314 at the same level as the selected selectable object 312 is replaced with the next level selectable object 318 or the upper level selectable object 316 associated with the selected selectable object.
- an optional object 312 that is selected and played on behalf of the music file is selected and directed toward In the direction of the first boundary 310 of the main menu selection area 308, an optional object 316 representing the different styles of music under the optional object 312, such as country, jazz, pop, ethnic, etc., may be substituted for the Selecting object 312 and optional object 314 at the same level as said optional object 312, correspondingly, said selected optional object 312 and optional object 314 at the same level as said optional object 312 Both will move out of the main menu selection area 308.
- music files can be divided into country, jazz, pop, ethnic, etc. according to their different styles. Under each style, they can also be divided into Chinese, English, Japanese, Korean, etc.
- the music files divided in this way can be managed by the interactive interface provided by the present invention.
- an optional object 312 representing the Chinese, English, Japanese, and Korean characters, and the genre of the representative music such as a country, a jazz, a pop, and a national are optional objects.
- the representative track singer genders such as male and female, serve as the next-level selectable object 316 of the optional object 312.
- the predetermined position is a critical determination condition for determining whether to perform switching of the selectable object 312 in the main menu selection area 308 according to a user setting or a default setting, that is, when the selectable object 312 is selected.
- the switching of the selectable object 312 is initiated according to the moving direction of the selectable object 312, and the predetermined position may be any critical line disposed between the two first boundaries 310 Or alternatively, the two first boundaries 310 themselves.
- the interaction interface 300 of the interaction device 100 provided by the embodiment of the present invention sets the main menu selection 308 at the corner of the display area 304, and presents the optional object 312 in the main menu selection area 308 for the user to select.
- the optional object 312 can be used to move to the boundary of the main menu selection area 308, that is, the direction of the first boundary 310, to achieve the selected pair.
- an interaction interface 400 is provided on the basis of another embodiment of the present invention.
- the interaction interface 400 adds a sub-menu selection area 402 to the interaction interface 300, that is,
- the interface interaction unit forms a second boundary 404 and a third boundary 405 in the display area 304 outside the main menu selection area 308 and adjacent to the main menu selection selection area 308, and the second boundary 404 and the third boundary 405 constitute the sub-menu selection area 402, wherein the third boundary 405 is adjacent to the second level 404 from the upper level of the main menu selection area selection object 312.
- Object 316 or next level optional object 318 is selected.
- the sub-menu selection area 402 includes an upper level selectable associated with the default selectable object 312 in the main menu selection area 308.
- the sub-menu selection area 402 in the present embodiment is disposed adjacent to the main menu selection area 308 to indicate an association relationship between the sub-menu selection area 402 and the main menu selection area 308.
- the sub-menu selection area 402 may be connected to the main menu selection area 308, that is, The second boundary 404 of the sub-menu selection area 402 overlaps with the first boundary 310 of the main menu selection area 308, that is, the sub-menu selection area 402 and the main menu selection area 308 share a boundary.
- the sub-menu selection area 402 may be disposed in an area between the main menu selection area 308 and the angled area 306 according to requirements, or may be generated in the main menu selection area 308 away from the angled area 306. One side.
- the sub-menu selection area 402 is configured to display an upper-level selectable object 406 or a next-level selectable object 408 associated with the selectable object 312 in the main menu selection area 308 to manage the music file as For example, if an optional object representing a language type of a song such as Chinese, English, Japanese, and Korean is presented in the main menu selection area 308, then the sub-menu selection area 402 may be presented to represent the main The genre of music files in various languages in the menu selection area 308, such as Chinese, English, Japanese, Korean, or in the sub-menu selection area 402, may be presented and representative of the main menu selection area. The sex selectable object of the singer in one of the various languages within the 308.
- the user can understand by the upper level selectable object 406 or the next level selectable object 408 associated with the selectable object 312 present in the main menu selection area 308 within the submenu selection area 402.
- the object managed at this time such as the local architecture of the music file, can understand that the user can reasonably make corresponding operation actions according to the architecture, that is, moving the optional object in which direction. 312 or moving the upper-level selectable object 406 or the next-level selectable object 408 can acquire the target object that is needed by itself.
- the upper-level selectable object 406 or the next-level selectable object 408 associated with the optional object 312 in the main menu selection area 308 is used to select and select the area 402 toward the sub-menu.
- the second boundary 404 is moved to replace the optional object 312 within the main menu selection area 308, that is, the upper optional object 406 or the next one presented in the sub-menu selection area 402.
- Stage selectable object 408 moves in the direction of the main menu selection area 308
- the response of the display content in the main menu selection area 308 can be synchronized, that is, the main menu is replaced by the upper-level selectable object 406 or the next-level selectable object 408 given in the embodiment.
- the optional object 312 in the selection area 308 is convenient for the user to quickly browse and obtain the desired target object on the basis of maintaining the correct presentation of the file or system hierarchy of the optional object 312. Further, referring to FIG. 5 and FIG. 5A, on the basis of the embodiment provided in FIG.
- the embodiment of the present invention further includes: when the processing unit uses the optional object in the main menu selection area 308 312 associated upper level selectable object 316, 406 or next level selectable object 318, 408 is selected and moved toward the location of second boundary 404 of said submenu selection area 402 in place of said main menu selection area An optional object 312 is selected 308, and the interface interaction unit is further configured to display, in the sub-category selection area 402, an association with the selected upper-level optional objects 316, 406. A primary optional object 502 or a lower level optional object 504 associated with the selected lower level optional object 318, 408.
- an upper level selectable object 406 or a next level selectable object 408 associated with the selectable object 312 within the main menu selection area 308 within the submenu selection area 402 is When selected and moving in the direction of the main menu selection area 308, the sub-menu selection area 402 can be updated according to the file or the layer architecture of the system in which the optional object is located. To further facilitate the user to browse and select the target object. Further, referring to FIG. 6 and FIG. 6A, on the basis of the embodiment provided in FIG.
- the embodiment of the present invention further includes: the optional object 312 in the main menu selection area 308 is selected and facing When the first boundary 310 adjacent to the second boundary 404 of the submenu selection area 402 moves and the selected selectable object 312 crosses a predetermined position, the processing unit selects the area 308 with the main menu.
- the optional object 312 within the sub-menu selection area 402 is replaced with the selected object
- the optional object 312 is associated with the upper level selectable object 316, 406 or the next level selectable object 318, 408.
- the main menu selection area 308 when the selectable object 312 in the main menu selection area 308 is selected and moved toward the sub-menu selection area 402, the main menu selection area 308 is guaranteed to be The file in which the optional object is located or the shelf architecture of the system updates the content it presents to further facilitate the user to browse and select the target object. Further, on the basis of the embodiment provided in FIG. 4, referring to FIGS. 7 and 7A, the third boundary 405 and the second boundary 404 of the third boundary 405 do not intersect each other in the display area 304.
- the upper-level selectable object 406 or the next-level selectable object 408 associated with the selectable object 312 in the main menu selection area 308 is located between the second boundary 404 and the third boundary 405, wherein The processing unit is further configured to select, in the upper level selectable object 316, 406 or the next level selectable object 318, 408 associated with the selectable object 312 in the main menu selection area 308
- the sub-menu selection area 402 is The upper level selectable object 316, 406 or the next level selectable object 418, 408 is replaced with an optional object 312 within the main menu selection area 308.
- the upper-level selectable object 406 or the next-level selectable object 408 in the sub-menu selection area 402 is selected and faces away from the main menu selection area 308,
- the location of the third boundary 405 is moved, it is ensured that the optional object 312 in the main menu selection area 308 can replace the content presented in the sub-menu selection area 402, so that the sub-menu selection area 402
- the content of the presentation may be updated according to the file or the layer architecture of the system in which the optional object is located, to further facilitate the user to browse and select the target object.
- the optional object 406 or the next level associated with the optional object 312 in the main menu selection area 308 can be The selected object 408 is selected and moved toward the location of the third boundary 405 of the sub-menu selection area 402 to replace the upper-level selectable object 406 or the next-level selectable object 408 with the main menu selection area 308. If the selected upper-level selectable object 406 has no associated upper-level selectable object or is not associated with the selected lower-level selectable object 408, When the next level of optional objects is further selected, the main dish selection area 308 is used to present a blank to let the user know that the file or system at the highest or lowest level of the system in which the object is viewed has arrived.
- another embodiment provided by the present invention further includes: the interface interaction unit, in the angled area 306 and the main menu.
- a secondary display area 802 is generated between the selection areas 308, and the secondary display area 802 includes a menu activation control 804.
- the processing unit is configured to activate the main menu in the display area 304 when the menu activation control 804 is selected. Area 308 is selected.
- a menu activation control 804 is generated within the corner region 306 to activate or present the main menu selection region 308 as needed, while the main menu 308 is hidden when not needed. Release the display area 304
- the interaction interface 300 of the interaction device 100 may interact with a user through a touch sensing technology, that is, the interface interaction unit includes a touch sensing interface, and a touch action on the interaction interface
- the touch action includes a touch to select an selectable object in the display area, and to move the selected selectable object slide.
- the interaction between the interactive interface and the user through the touch sensing technology can make the interaction between the user and the device more convenient and smoother.
- the processing unit is further configured to: after the optional object 312 in the main menu selection area 308 is selected, select the first area along the main menu selection area 308 When the extending direction of the boundary 310 is moved, the optional object 312 at the same level as the predetermined selected object 312 is displayed in the main menu selection area 308 in a rotating manner.
- the selectable object 312 within the main menu selection area 308 can be moved along the direction of extension of the first boundary 310 of the main menu selection area 308, thereby presenting a plurality of selectable objects 312 In the main menu selection area 308, when the number of the selectable objects 312 in the main menu selection area 308 is large and cannot be simultaneously displayed in the main menu selection area 308, the current display may be displayed by sliding.
- the main menu selects an optional object 312 in the area 308 to display an optional object that is not displayed, thereby facilitating the user to find the target object.
- an interaction method 900 is provided by an embodiment of the present invention.
- the interaction method 900 is configured to provide an operable user interface to a user and implement an interaction operation between the user interface and the user.
- the interaction method 900 includes:
- the S910 displays two first boundaries in the display area, where the display area includes a plurality of display boundaries, and an angled area is generated between each two adjacent display boundaries, where the two first boundaries are located At a position corresponding to the at least one angled region in the display area, the two first boundaries do not intersect each other in the display area and respectively span the angled area and the angled area respectively
- the display boundaries of the side intersect, and the display boundaries on both sides of the two first boundaries and the angled area constitute a main menu selection area;
- the interaction device can generate an interaction interface according to the predetermined interface model by calling the graphical user interface generation program 266.
- the generated interaction interface is the same as the interaction interface 300 presented in FIG. 3 in the embodiment of the present invention.
- the interaction interface 300 includes a display area 304 composed of a plurality of display boundaries 302, wherein an angled area 306 is formed between adjacent display boundaries 302 of the plurality of display boundaries 302; at least the display area 304 A main menu selection area 308 is generated in an angled area 306.
- the main menu selection area 308 includes two first boundaries 310.
- the two first boundaries 310 of the main menu selection area 308 are in the display area 304.
- the interiors do not intersect each other and intersect the display boundary 302 on either side of the angled region 306 after traversing the angled region 306, respectively.
- the position of the main menu selection area 308 is ergonomically designed to reduce the fatigue of the user during operation, that is, the position of the main menu selection area 308 is easier for the user to acquire and operate, not because Long-term operation causes fatigue and damage to the user's limbs.
- S920 displays an optional object in the display area, and the selectable object is located in the main menu selection area in the display area. Determining a predetermined selectable object display range by the main menu selection area generated in the above step, and presenting the selectable object within the display range determined by the main menu selection area, the displaying the selectable object. The steps and the actions of displaying the main menu selection area may be performed simultaneously, or the main menu selection area may be generated in time series, and then the optional object is generated.
- S930 detects a first touch action occurring in the main menu selection area to acquire a position at which the first touch action occurs.
- an interactive interface can be generated, and the user can implement the generated interactive interface.
- the interaction between the interaction devices is performed by means of a touch, that is, the generated interaction interface is presented on a touch display screen, and the user can perform interaction with the interaction device by a touch action on the touch display screen. .
- the touch display screen detects a first touch action occurring in the main menu selection area to acquire a position where the first touch action occurs to occur by the first touch action. The location to determine the target object corresponding to the first touch action.
- S940 determines an optional object selected by the first touch action according to the acquired position where the first touch action occurs. After the touch display screen acquires the specific location where the first touch action occurs, the specific location is fed back to the processor of the interaction device, and the processor of the interaction device will occur according to the touch action. a location and a model data of the interactive interface to determine a target object corresponding to a specific location at which the first touch action occurs, that is, the selectable object, the processor may cause the processor to The display prompts the selected object by visual, audible, or tactile cues, such as zooming in on the selected object, or sounding the selected sound, or vibrating the body of the interactive device. The way to indicate that the target object is selected. S950 detects a first touch trajectory of the first touch action in a direction in which any one of the first boundaries of the main menu selection area is located;
- the upper-level selectable object or the lower and optional objects related to the selectable object may be obtained according to the requirement thereof, for the convenience of the user operation, and
- the ergonomic design, in the embodiment of the present invention the sliding action in the direction of any one of the first boundary of the menu selection area is used as a trigger or the upper-level optional object related to the selected object is selected or
- the next-level optional object triggering instruction, that is, after the first touch action selects an optional object, the touch display screen will continue to determine the touch track of the first touch action, and acquire the touch track
- the touch track is fed back to the processor, and the processor will move the selected selectable object according to the touch track of the first touch action, when the touch track of the first touch action faces the main menu selection area a direction in which the first boundary is located, and the movement track is when the span of the display area satisfies a predetermined rule or threshold, that is, the first touch action
- the selected optional object crosses a predetermined position along the moving track
- the interaction method provided by the embodiment of the present invention provides an ergonomic and easy-to-operate interactive interface to the user, so that the user can conveniently and quickly browse and select the target object through the touch operation to simplify the interaction process and improve the interaction efficiency. And reduce the fatigue caused by the interaction process on the user's limbs.
- the embodiment of the present invention provides the interaction method 900, further comprising: S1010 displaying a second boundary and a third boundary in the display area, where the second boundary and the third boundary are located in the main menu selection Outside the region and the third boundary is further away from the main menu selection region than the second boundary; the second boundary and the third boundary constitute a sub-menu selection region
- the interaction method provided by the embodiment of the present invention is provided in order to facilitate the user to more intuitively understand or view the actual architecture of the system or file in which the target object is located, and to make the interaction between the user and the interaction device more smooth.
- an interactive interface including the main menu selection area 308 and the sub-menu selection area 402 is generated according to a predetermined interface model by calling the graphical user interface generation program 266.
- the interaction interface is the same as the interaction interface 400 presented in FIG. 4 in the embodiment of the present invention, that is, a sub-menu selection area 402 is generated adjacent to the main menu selection area 308, and the sub-menu selection area 402 includes a second boundary 404 adjacent to a first boundary 310 of the main menu selection area 308 and a third boundary 405, the third boundary 405 being spaced from the second boundary 404 by the main menu selection area 308 Farther away.
- This step may be performed in synchronization with the foregoing step S910, or may be performed after step S910 according to different requirements.
- the processor further defines a menu selection area in the display area for further displaying the target object in the sub-menu selection area 402 to present more information of the target object.
- the user can simultaneously display the specific hierarchical structure of the system or file where the target object is located to the user, so that the user can quickly find the desired target object.
- S1020 displaying the predetermined upper-level selectable object or a next-level selectable object associated with the selected selectable object, the predetermined previous one associated with the selected selectable object
- the level selectable object or the next level selectable object is located in the submenu selection area. This step displays the first-level selectable object or the next-level selectable object associated with the selectable object within the sub-menu selection area, and may provide the user with more information about the selectable object.
- S 1030 detects a second touch action occurring in the sub-menu selection area to acquire a position at which the second touch action occurs.
- an interaction interface can be generated, and the interaction between the interaction devices can be implemented by the user through the generated interaction interface, that is, the generated interaction interface is presented on a touch display screen, and the user
- the interaction with the interactive device can be made by a touch action on the touch display.
- the touch display screen detects a second touch action occurring in the main menu selection area to acquire a position where the second touch action occurs to occur by the second touch action. The location to determine the target object corresponding to the second touch action.
- S1040 determines, according to the acquired position of the second touch action, the upper-level selectable object or the next-level selectable object in the second touch action selection.
- the specific location is fed back to the processor of the interaction device, and the processor of the interaction device will occur according to the touch action.
- the processor may cause the display to be performed after the selectable object as the target object is determined
- the screen prompts the selected object by visual, audible, or tactile cues, such as zooming in on the selected object, or sounding the selected sound, or vibrating the body of the interactive device.
- S1050 detects a second touch trajectory of the second touch action in a direction in which the second boundary of the sub menu selection area is located.
- S 1060 along the touch second touch track, moving the upper-level selectable object or the next-level selectable object selected by the second touch action and in the previous one selected by the second touch action.
- the level selectable object or the next-level selectable object crosses a predetermined position, the upper-level selectable object or the next-level selectable object selected by the second touch action and the selected object are selected.
- the optional object of the upper level selectable object or the selected next level selectable object at the same level replaces the selectable object in the main menu selection area.
- the upper-level related to the selectable object may be obtained according to the requirement thereof.
- the optional object or the upper-level optional object related to the optional object or the lower-level optional object in order to facilitate user operation and ergonomic design, in the embodiment of the present invention, select the sub-menu A sliding action in the direction of any one of the second boundaries of the region acts as a trigger or acquires a higher-level selectable object associated with the selectable object or a higher-level selectable object associated with the selectable object or
- the optional object triggering instruction that is, when the second touch action selects a higher-level selectable object related to the selectable object or a higher-level selectable object related to the next-level selectable object, or After the object is selected, the touch display screen will continue to determine the touch track of the second touch action, and feed back the acquired touch track to the processor, and the processor will according to the second touch a touch track of the action to
- the interaction method provided by the embodiment of the present invention provides an ergonomic and easy-to-operate interactive interface to the user, so that the user can conveniently and quickly browse and select the target object through the touch operation to simplify the interaction process and improve the interaction efficiency. And reduce the fatigue caused by the interaction process on the user's limbs.
- an embodiment of the present invention provides the interaction method 900, in which the upper-level selectable object or the next-level selectable object selected by the second touch action and the When the selected upper-level optional object or the selected lower-level optional object at the same level replaces the selectable object in the main menu selection area, the method further includes: S1110 in the sub- Displaying, in the menu selection area, a higher level optional object associated with the selected upper level selectable object or a lower level selectable object associated with the selected lower level selectable object .
- the embodiment of the present invention provides the interaction method 900, the step S950, that is, the detecting the first touch action in the direction of any one of the first boundaries of the main menu selection area.
- a touch track specifically includes:
- S1210 detects a first touch trajectory of the first touch action in a direction of a first boundary of the main menu selection area adjacent to a second boundary of the sub-menu; correspondingly, the step S960, ie, Moving the selectable object selected by the first touch action along the first touch trajectory, and selecting an optional object selected by the first touch action and the selected selectable object
- the method further includes: S1220 replaces the upper-level selectable object or the next-level selectable object in the sub-menu selection area with the selectable object in the main menu selection area.
- the third boundary and the second boundary generated by the step S1010 do not intersect each other in the display area and respectively span the The angled area intersects the display boundary on both sides of the angled area, and the second boundary, the third boundary, and the display boundary on both sides of the angled area constitute the sub-menu selection area;
- the method 900 also includes:
- S1310 detects a third touch action occurring in the sub-menu selection area to acquire a position where the third touch action occurs; S1320 determines, according to the acquired position of the third touch action, the third touch action is selected.
- the sub-menu selects an upper-level selectable object or a next-level selectable object in the area;
- S1330 detects a third touch trajectory of the third touch action in a direction in which the third boundary of the sub menu selection area is located;
- S 1340 moves the upper-level selectable object or the next-level selectable object in the sub-menu selection area selected by the third touch action along the touch-touch trajectory, and is selected in the The upper-level selectable object or the next-level selectable object when the predetermined object is crossed over a predetermined position, the upper-level selectable object or the next-level selectable object selected by the second touch action and the selected upper
- the optional object of the first-level optional object or the selected lower-level optional object at the same level is replaced with the optional object in the main menu selection area.
- an embodiment of the present invention provides step S1350 of the interaction method 900, that is, Moving the upper optional object or the next-level selectable object associated with the selectable object in the main menu selection area selected by the third touch action along the touched third touch track, and The upper-level selectable object or the next-level selectable object in the touch action selection and the selectable object at the same level as the selected upper-level selectable object or the selected lower-level selectable object
- the method further includes:
- the interaction method 900 is provided by the embodiment of the present invention.
- the method further includes: S1510 displaying a menu activation control in a secondary display area, where the secondary display area is located in the corner area corresponding to the main menu selection area.
- the menu activation control is generated in the secondary display area, and the occupied display space is small for the user to wake up or activate the hidden main menu selection area; and the display area is released when not needed.
- S1520 detects a fourth touch action that is located in the secondary display area and corresponds to the menu activation control.
- the step S910 displays that the main menu selection area in the display area specifically includes:
- S1530 displays a main menu selection area in the display area according to the fourth touch action.
- the menu activation control is touched, the main menu selection area can be displayed and used in the display area for the user to use or operate.
- the embodiment of the present invention provides the interaction method 900, and further includes:
- S 1610 detects a fifth touch action occurring in the main menu selection area to acquire a position at which the fifth touch action occurs;
- S 1630 detects a fifth touch trajectory of the fifth touch action that moves along an extending direction of the first boundary of the main menu selection area
- steps S1610 to S1640 in the above-mentioned interaction method 900 can also wake up the sub-menu selection area while waking up the main menu or after waking up the main menu.
- the selectable object in the main menu selection area may be moved along the extending direction of the first boundary of the main menu selection area under the touch operation of the user, thereby presenting a plurality of selectable objects in the In the main menu selection area, when the number of selectable objects in the main menu selection area is large and cannot be displayed in the main menu selection area at the same time, the current menu selection can be selected by sliding the main menu.
- the optional object in area 308 displays the optional object that is not displayed, thereby facilitating the user to find the target object.
- an interaction device 1700 according to an embodiment of the present invention, the interaction device 1700 It is used to provide an operable user interface to the user and to implement an interaction between the user interface and the user.
- the interaction device 1700 includes: a first display module 1710, configured to display two first boundaries in the display area; wherein the display area includes multiple display boundaries, between each two adjacent display boundaries Generating an angled region, the two first boundaries being located at positions corresponding to the at least one of the angled regions in the display region, the two first boundaries not intersecting each other within the display region And intersecting the display boundary on both sides of the angled area respectively across the angled area, the two first boundaries and the display boundary on both sides of the angled area forming a main menu selection area .
- the first display module 1710 of the interaction device 1700 is configured to display a main menu in a display area, the main menu and the display area and the step S910 in the interaction method 900 provided by the embodiment of the present invention.
- the main menu and the display area are the same.
- the detailed description of the main menu, the layout of the display area, and the advantages of the layout of the main menu and the display area can be referred to the embodiment of the present invention.
- the introduction of step S910 in the interaction method 900 is not redundant here for the sake of brevity.
- the first display module 1710 is configured to implement step S910 in the interaction method 900, which may refer to the graphical user interface generation program 266, and may also refer to the graphical user interface generation program 266 and invoke the The combination of processors of the graphical user interface generation program 266, or the graphical user interface generation program 266, invokes the processor of the graphical user interface generation program 266 and a combination of various peripheral auxiliary devices.
- the second display module 1720 is configured to display an optional object in the display area, wherein the selectable object is located in the main menu selection area in the display area.
- the second display module 1720 is configured to implement step S920 in the interaction method 900,
- the graphical user interface generation program 266 may be referred to as a combination of the graphical user interface generation program 266 and a processor that invokes the graphical user interface generation program 266, or the graphical user interface generation.
- Program 266, invokes the processor of graphical user interface generation program 266 and a combination of various peripheral auxiliary devices.
- the first detecting module 1730 is configured to detect a first touch action occurring in the main menu selection area to obtain a location where the first touch action occurs.
- an interaction interface can be generated, and the interaction between the interaction devices can be implemented by the user through the generated interaction interface, that is, the generated interaction interface is presented on a touch display screen, and the user
- the interaction with the interactive device can be made by a touch action on the touch display.
- the detecting module detects a first touch action occurring in the main menu selection area to acquire a position where the first touch action occurs, to occur by the first touch action.
- the location determines a target object corresponding to the first touch action.
- the first selection module 1740 is configured to determine an optional object in the first selection of the touch action according to the acquired position of the first touch action.
- the first detecting module 1730 obtains the specific location where the first touch action occurs, the specific location is fed back to the processor of the interaction device, and the first selection module 1740 of the interaction device Determining a location of the touch action and model data of the interaction interface to determine a target object corresponding to the specific location at which the first touch action occurs, that is, the selectable object, when the selectable object is determined
- a selection module 1740 can prompt the selected object by visual, audible, or tactile cues, for example, the selected one can be enlarged. The object is selected, either to represent the selected sound, or to indicate that the target object is selected in a manner that the body of the interactive device vibrates.
- the first touch track detecting module 1750 is configured to detect a first touch track of the first touch action in a direction in which any one of the first boundaries of the main menu selection area is located.
- a first object moving module 1760 configured to move the selectable object selected by the first touch action along the first touch track and to pass the predetermined object selected by the first touch action Positioning, the optional object selected by the first touch action and the predetermined selectable object at the same level as the selected selectable object are replaced with a predetermined selected object selected The upper optional object or the next optional object.
- the first selection module 1740 selects an optional object according to the first touch action detected by the first detecting module 1730, the related object may be acquired according to the next moving action of the user.
- the upper-level optional object or the lower and optional objects in order to facilitate the user's operation, and the ergonomic design, in the embodiment of the present invention, the first selection area is selected toward the menu.
- the first-level selectable object or the next-level selectable object triggering instruction that is, after the first selection module 1740 selects an optional object, the first touch track detecting module 1750 will continue to determine the first Touching the touch track of the action, and feeding the acquired touch track to the first object moving module 1760, the first object moving module 1760 according to the first touch track detecting module 1750 Touching a touch track of the action to move the selected selectable object, when the touch track of the first touch action is oriented in a direction of a first boundary of the main menu selection area, and the moving track is in the display
- the object moves when the span of the region satisfies a predetermined rule or threshold
- the module will issue an optional object replacement instruction, ie, replace the selectable object selected by the first touch action with the selectable object at the same level as the selected selectable object with the selected one
- the upper-level optional object or the next-level optional object associated with the optional object ie, replace the selectable object selected by the first touch action with the selectable object at
- an embodiment of the present invention provides another interaction device 1800.
- the interaction device 1800 further includes: a third display module 1810, configured to display a second boundary and a third boundary, on the basis of the interaction device 1700.
- the second boundary and the third boundary are located outside the main menu selection area, and the third boundary is further away from the main menu selection area than the second boundary;
- the second boundary and the third boundary constitute a submenu selection area. .
- an interaction interface including a sub-menu selection area 402 is further generated by the third display module 1810, and the interaction interface is the same as the interaction interface 400 presented in FIG. 4 of the embodiment of the present invention. That is, a sub-menu selection area 402 is generated adjacent to the main menu selection area 308, and the sub-menu selection area 402 includes a second boundary adjacent to a first boundary 310 of the main menu selection area 308. 404 and third boundary 405.
- a menu selection area can be used to further display the target object within the sub-menu selection area 402 to present more information of the target object to the user, while being able to visualize the specific hierarchical structure of the system or file in which the target object is located.
- the display is presented to the user, so that the user can quickly find the desired target object.
- the fourth display module 1820 is configured to display an upper level selectable object or a next level selectable object associated with the selectable object in the main menu selection area, the association being associated with the selectable object in the main menu selection area
- the upper optional object or the lower optional object is located in the submenu selection area.
- Displaying, by the fourth display module 1820, a first-level selectable object or a next-level selectable object associated with the selectable object in the sub-menu selection area may provide more options for the user The information of the object.
- the second detecting module 1830 is configured to detect a second touch action occurring in the sub-menu selection area to obtain a location where the second touch action occurs.
- the second detecting module 1830 detects a second touch action occurring in the main menu selection area to acquire a position where the second touch action occurs, to pass the second touch action.
- the location of occurrence determines the target object corresponding to the second touch action.
- a second selection module 1840 configured to determine, according to the acquired position of the second touch action The second touch action selects a higher level selectable object or a next level selectable object associated with the selectable object in the main menu selection area.
- the second selection module 1840 of the interaction device is based on a location at which the touch action occurs and model data of the interaction interface to determine a target object corresponding to a specific location at which the second touch action occurs, when the selectable object that is the target object is determined
- the two selection module 1840 can prompt the selected optional object by means of visual, audible, or tactile cues, such as zooming in on the selected optional object, or issuing a sound representing the selected sound, or an interactive device. The way the body vibrates to indicate that the target object is selected.
- the second trajectory detecting module 1850 is configured to detect a second touch trajectory of the second touch action in a direction of a second boundary of the sub menu selection area.
- a second object moving module 1860 configured to move, according to the touch second touch track, the upper-level selectable object or the next-level selectable object selected by the second touch action and in the second touch
- the upper-level selectable object selected by the second touch action or the next-level selectable object may be selected
- the object and the selectable object at the same level as the selected upper-level selectable object or the selected lower-level selectable object replace the selectable object in the main menu selection area.
- a second touch trajectory of the second touch action detected by the second trajectory detecting module 1850 Obtaining a higher-level optional object associated with the optional object or a higher-level optional object related to the optional object or a lower-level optional object, for user-friendly operation, and ergonomic design,
- the sliding action in the direction of any one of the second boundaries of the sub-menu selection area is used as a trigger or the acquisition of the upper-level optional object or the next-level optional object related to the optional object.
- a further upper-level selectable object or a further optional object triggering instruction that is, when the second selecting module 1840 is selected according to the second touch action detected by the second detecting module 1830
- the second trajectory detecting module 1850 After selecting an upper-level optional object related to the object or a higher-level optional object related to the next-level optional object or a further optional object, the second trajectory detecting module 1850 will detect the second touch.
- the second object moving module 1860 will touch the touch track according to the second touch action Tracking to move the selected upper level selectable object or the next selectable object, when the touch track of the second touch action is oriented toward a second boundary of the sub menu selection area, and
- the second object movement module 1860 will issue an instruction to replace the object, ie, the previous one selected by the second selection module 1840 a level selectable object or a next level selectable object and an optional object at the same level as the selected upper level selectable object or the selected next level selectable object replaces the main menu selection area Optional object.
- the interactive device provided by the embodiment of the present invention provides an ergonomic and easy-to-operate interactive interface to the user, so that the user can conveniently and quickly browse and select the target object through the touch operation to simplify the interaction process and improve the interaction efficiency. And reduce the fatigue caused by the interaction process on the user's limbs.
- the second object movement module 1860 uses the upper-level selectable object or the next-level selectable object selected by the second touch action and the selected upper-level selectable object or selected
- the second display module 1810 is further configured to display and describe the sub-menu selection area A higher level optional object associated with the selected upper level selectable object or a lower level selectable object associated with the selected lower level selectable object.
- the first mobile trajectory detection module 1750 is specifically configured to detect the main menu selection area adjacent to a second boundary of the sub menu, according to the embodiment of the present invention.
- the first touch track of the first touch action in the direction of the first boundary; the second display module 1720 is further configured to replace the sub-menu selection with the selectable object in the main menu selection area The upper level selectable object or the next level selectable object in the area.
- the third boundary generated by the second display module 1810 and the second boundary do not intersect each other in the display area and respectively Intersecting the display boundary on both sides of the angled region across the angled region, the second boundary, the third boundary, and the display boundary on both sides of the angled region forming the submenu selection
- the second detecting module 1830 of the interaction device 1800 is further configured to detect a third touch action occurring in the sub-menu selection area to obtain a location where the third touch action occurs;
- the second selection module 1840 of the interaction device 1800 is further configured to determine, according to the acquired position of the third touch action, the upper-level selectable object or the next sub-menu selection area in the third touch action selection Level 1 optional object;
- the main menu selection area is selected by the third touch action.
- the interaction device 1900 further includes: a control generation module 1910, configured to display a menu activation control in a secondary display area, on the basis of the interaction device 1800.
- the secondary display area is located in the angled area corresponding to the main menu selection area;
- the control generating module 1910 is configured to generate a menu activation control in the secondary display area, where the menu activation control occupies a small display space for the user to wake up or activate the hidden main menu selection area; The display space occupied by the display area is released when not needed.
- a third detecting module 1920 configured to detect a fourth touch action that is located in the secondary display area and corresponding to the menu activation control; correspondingly, the first display module 1710 is further configured to perform according to the fourth touch action
- the main menu selection area is displayed in the display area. When the menu activation control is touched, the main menu selection area can be displayed and used in the display area for the user to use or operate.
- the first detecting module 1730 is further configured to detect a fifth touch action occurring in the main menu selection area to obtain
- the first selection module 1740 is further configured to determine, according to the acquired position of the fifth touch action, an optional object selected by the fifth touch action;
- a trajectory detection module 1750 further configured to detect a fifth touch trajectory of the fifth touch action that moves along an extending direction of the first boundary of the main menu selection area;
- the first object movement module 1760 is further used to Moving the selectable object selected by the fifth touch action along the fifth touch track, and displaying the selectable object of the same level as the selectable object selected by the fifth touch action in a rotating manner
- the main menu is selected within the area.
- control generating module 1910 can also wake up in the same manner.
- the submenu selection area is awakened at the same time as the main menu or after waking up the main menu.
- the selectable object in the main menu selection area may be moved along the extending direction of the first boundary of the main menu selection area under the touch operation of the user, thereby presenting a plurality of selectable objects in the In the main menu selection area, when the number of selectable objects in the main menu selection area is large and cannot be displayed in the main menu selection area at the same time, the main menu can be displayed by sliding.
- An optional object within region 308 is selected to display an optional object that is not displayed, thereby facilitating the user to find the target object.
- the present invention can be implemented by means of software plus necessary general hardware, and of course, by hardware, but in many cases, the former is a better implementation. .
- the technical solution of the present invention which is essential or contributes to the prior art, may be embodied in the form of a software product stored in a readable storage medium, such as a floppy disk of a computer.
- a hard disk or optical disk or the like includes instructions for causing a computer device (which may be a personal computer, a server, or a network device, etc.) to perform the methods described in various embodiments of the present invention.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种交互设备,包括:交互界面,交互界面包括由多个显示边界组成的显示区域,其中多个显示边界中每两个相邻接的显示边界之间生成有夹角区;界面交互单元,用于在显示区域对应至少一个夹角区的位置处生成两条第一边界,两条第一边界与夹角区两侧的显示边界构成主菜单选择区域,主菜单选择区域内包括可选对象;处理单元,用于在主菜单选择区域内的可选对象被选中并朝两条第一边界中的任意一条第一边界所在位置移动且被选中的可选对象越过一预定位置时,将主菜单选择区域中被选中的可选对象及预定的与被选中的可选对象处于同一级的可选对象替换为预定的与被选中的可选对象相关联的上一级可选对象或下一级可选对象。
Description
交互方法及交互设备 技术领域
本发明实施例涉及人机交互领域, 尤其涉及交互方法及交互设备。 背景技术
随着智能移动终端设备的发展,通过触摸屏幕进行交互操作的终端占据了 目前终端设备的主流地位。这种设备可以供用户通过在触摸屏幕上的各种动作 来与设备之间进行各种交互, 比如开关机、 浏览图片、 听音乐、 看电影等。 随 着智能终端设备功能的丰富以及各种应用软件的出现,触摸屏幕的尺寸变的越 来越大, 基于触摸屏幕的交互界面往往也对应的增大, 对于用户来说, 在大屏 幕提供较佳的视觉体验的同时也带来操作不便的问题,用户往往需要跨屏幕的 进行触摸操作,这种操作方式往往不符合人体工学要求,造成用户的操作不便。 发明内容
本发明实施例提供一种符合人体工学要求且操作方便的交互设备,所述交 互界面包括:
一种交互设备, 包括交互界面, 所述交互界面包括由多个显示边界组成的 显示区域,其中所述多个显示边界中每两个相邻接的显示边界之间生成有夹角 区, 其中, 所述交互设备还包括界面交互单元及处理单元;
所述界面交互单元,用于在所述显示区域对应至少一个所述夹角区的位置 处生成两条第一边界,所述两条第一边界在所述显示区域内互不相交且分别横
跨所述夹角区与所述夹角区两侧的所述显示边界相交,所述两条第一边界与所 述夹角区两侧的所述显示边界构成主菜单选择区域,所述主菜单选择区域内包 括可选对象;
所述处理单元,用于在所述主菜单选择区域内的所述可选对象被选中并朝 所述两条第一边界中的任意一条第一边界所在位置移动且所述被选中的可选 对象越过一预定位置时,将所述主菜单选择区域中被选中的可选对象及预定的 与所述被选中的可选对象处于同一级的可选对象替换为预定的与所述被选中 的可选对象相关联的上一级可选对象或下一级可选对象。
本发明实施例还提供一种符合人体工学要求且操作方便的交互方法,所述 方法包括:
显示两条第一边界于显示区域内 ,其中,所述显示区域包括多个显示边界, 每两个相邻的所述显示边界之间生成有夹角区,所述两条第一边界位于所述显 示区域内与所述至少一个夹角区对应的位置处,所述两条第一边界在所述显示 区域内互不相交且分别横跨所述夹角区与所述夹角区两侧的所述显示边界相 交,所述两条第一边界与所述的夹角区两侧的所述显示边界构成主菜单选择区 域;
显示可选对象于所述显示区域内,所述可选对象位于所述显示区域内的所 述主菜单选择区域内;
检测发生于所述主菜单选择区域内的第一触摸动作以获取所述第一触摸 动作所发生的位置;
根据所获取的第一触摸动作发生的位置确定第一该触摸动作所选中的可 选对象;
检测朝向所述主菜单选择区域的任意一条第一边界所在方向的所述第一 触摸动作的第一触摸轨迹;
沿所述第一触摸轨迹移动由所述第一触摸动作选中的所述可选对象且在 由所述第一触摸动作选中的所述可选对象越过一预定位置时,将由所述第一触 摸动作所选中的可选对象及预定的与所述被选中的可选对象处于同一级的可 选对象替换为预定的与所述被选中的可选对象相关联的上一级可选对象或下 一级可选对象。
本发明实施例还提供一种符合人体工学要求且操作方便的交互设备,其包 括: 第一显示模块, 用以显示两条第一边界于显示区域内; 其中, 所述显示区 域包括多个显示边界,每两个相邻的所述显示边界之间生成有夹角区, 所述两 条第一边界位于所述显示区域内与所述至少一个所述夹角区对应的位置处,所 述两条第一边界在所述显示区域内互不相交且分别横跨所述夹角区与所述夹 角区两侧的所述显示边界相交,所述两条第一边界与所述的夹角区两侧的所述 显示边界构成主菜单选择区域; 第二显示模块, 用于显示可选对象于所述显示区域内, 其中, 所述可选对 象位于所述显示区域内的所述主菜单选择区域内; 第一检测模块,用于检测发生于所述主菜单选择区域内的第一触摸动作以 获取所述第一触摸动作所发生的位置; 第一选择模块,用于根据所获取的第一触摸动作发生的位置确定第一该触 摸动作所选中的可选对象;
第一触摸轨迹检测模块,用于检测朝向所述主菜单选择区域的任意一条第 一边界所在方向的所述第一触摸动作的第一触摸轨迹 , 以及 第一对象移动模块,用于沿所述第一触摸轨迹移动由所述第一触摸动作选 中的所述可选对象且在由所述第一触摸动作选中的所述可选对象越过一预定 位置时,将由所述第一触摸动作所选中的可选对象及预定的与所述被选中的可 选对象处于同一级的可选对象替换为预定的与所述被选中的可选对象相关联 的上一级可选对象或下一级可选对象。 本发明实施例提供的交互设备及交互方法通过将主菜单选择设置在显示 区域的拐角处, 并将可选对象呈现在所述主菜单选择区域内供用户选择,且所 述可选对象可用于被选中后朝所述主菜单选择区域的第一边界所在方向移动 从而实现对被选中的可选对象的上一级可选对象或者下一级可选对象的更替 及选取, 可使用户通过拇指对目标对象进行简单快速的选取和操作,从而使整 个交互界面、 交互方法及交互设备符合人体工学的设计需求,从而方便用户通 过所述交互界面、 交互方法及交互设备来实现简便、 轻松、 快捷的交互操作。 附图说明
图 1是一种承载并实现本发明的交互设备框图;
图 2是图 1中的交互设备 100的系统架构框图;
图 3、 3A及 3B是本发明实施例提供的一种交互界面及交互方式; 图 4、 4A及 4B是本发明实施例提供的一种交互界面及交互方式; 图 5及 5A是本发明实施例提供的一种交互界面及交互方式;
图 6及 6A是本发明实施例提供的一种交互界面及交互方式;
图 7及 7A是本发明实施例提供的一种交互界面及交互方式;
图 8是本发明实施例提供的一种交互界面;
图 9至 16是本发明实施例提供的一种交互方法;
图 17是本发明实施例提供的一种交互设备。
图 18是本发明另一实施例提供的一种交互设备。
图 19是本发明另一实施例提供的一种交互设备。 具体实施方式 请参阅图 1 , 为用以承载并实施本发明的交互设备 100框图。 所述交互设 备 100, 可以是平板电脑、 个人数字助理、 蜂窝电话、 网络家电、 相机、 智能 电话、增强型通用分组无线业务(EGPRS )移动电话、 网络基站、媒体播放器、 导航设备、 电子邮件设备、游戏控制中心、 电子相框、数据卡等数据处理设备, 或这些数据处理设备或其它数据处理设备中的任意两者或多者的组合。 所述交互设备 100包括触敏显示器 102。 所述触敏显示器 102可以是液晶 显示器(LCD )技术、 发光二极管(LPD )技术、 碳纳米管显示器或某些其它 显示器技术。触敏显示器 102可以是对与用户的触摸和 /或触觉接触敏感的集 显示与触摸响应一体的设备。 所述触敏显示器 102 可以包括多点触敏响应功 能, 所述多点触敏响应是指所述触敏显示器 102可以处理多个同时的触摸点, 包括处理与每个触摸点的压力、 面积和 /或位置有关的数据, 这样的多点触摸 功能便于利用多个手指的手势或动作与所述交互设备 100进行交互。所述交互 设备 100可以在所述触敏显示器 102上显示一个或多个图形化用户界面,以用 于向用户提供对各种系统对象的访问以及用于向用户传达信息。所述图形用户
界面可以包括一个或多个可选对象即显示对象。所述显示对象通过图像化的方 式为用户提供启用某个功能的入口,所述可选对象包括设备功能、应用、窗口、 文件、 警报、 事件或其它可识别的系统对象。 所述交互设备 100可以实现多个设备功能, 例如, 电话设备、 电子邮件设 备、 网络数据通信设备、 Wi-Fi基站设备和媒体处理设备。 在某些实现方式中, 可以在一用户界面的菜单栏中显示具体的显示对象。在某些实现方式中,可以 从顶层图形用户界面访问所述设备功能,比如通过触摸的方式调用与所述设备 对应的功能。 在一些场景下, 当所述交互设备 100的某个设备功能被调用之后, 所述交 互设备 100的图形用户界面改变,或者被扩大或用另一用户界面或用户界面元 素取代, 以辅助用户对与相对应的设备功能相关联的具体功能的访问和操作。 例如, 响应于用户触摸电话对象,触敏显示器 102的图形用户界面可以呈现与 各种电话功能有关的显示对象; 同样,触摸电子邮件对象可以使得图形用户界 面呈现与各种电子邮件功能有关的显示对象;触摸网络对象可以使得图形用户 界面呈现与浏览网页功能有关的显示对象;而触摸媒体播放器对象可以使得图 形用户界面呈现与各种媒体处理功能有关的显示对象。 在另一些场景下,图 1的顶层图形用户界面环境或状态可以通过按压位于 交互设备 100底部附近的按钮 120恢复。在另一些场景下,每个相对应的设备 功能可以具有显示在触敏显示器 102上的相对应的 "主界面"显示对象,并且图 1的图形用户界面环境可以通过按压 "主界面,,显示对象来恢复。 在另一些场景 下, 所述交互设备 100的顶层图形用户界面可以包括另外的显示对象 106, 例
如, 短消息服务(SMS )对象、 日历对象、 照片对象、 相机对象、 计算器对象、 股票对象、 天气对象、 地图对象、 笔记对象、 时钟对象、 地址薄对象和设置对 象。 触摸地图对象例如可以调用地图绘制和基于位置的服务环境和支持功能; 同样,选择任意显示对象 106可以调用相对应的对象环境和功能。请参阅图 2, 为图 1中交互设备 100的系统架构 200, 所述交互设备 100的系统架构 200可 以包括存储器接口 202、 一个或多个数据处理器、 图像处理器和 /或中央处理 单元 204和外围接口 206。所述存储器接口 202 、一个或多个处理器 204和 / 或外围接口 206可以是分离的组件或可以被集成到一个或多个集成电路中。所 述系统架构 200中的各个组件可以用一个或多个通信总线或信号线来连接。感 测器、设备和子系统可以连接到外围接口 206来辅助实现所述交互设备所具有 的各种功能。 例如, 运动感测器 210、 光感测器 212和位置感测器 214可以连 接到外围接口 206来辅助实现交互设备关于运动感测功能、环境亮度感测功能 以及位置感测等同能, 也可以相互协作的完成特定的功能。 其它辅助感测器 216也可以连接到外围接口 206, 例如, 定位系统(例如, GPS接收机)、 温度 感测器、 生物特征计量感测器、 气压感测器、 海拔感测器, 来辅助完成所述交 互设备所具有的各种相关的功能。所述交互设备 100的系统架构 200中还包括 相机子系统 220,所述相机子系统 220通过光感测器 212如电荷耦合装置 CCD 或互补金属氧化物半导体 CMOS光学感测器来辅助所述相机子系统来实现相 应的图像获取功能。所述交互设备 100的系统架构 200中还包括无线通信子系 统 224, 所述无线通信子系统 224用以使所述交互设备具有无线通讯的功能, 所述无线通信子系统 224可以包括射频接收机和发射机和 /或光学(例如, 红 夕卜)接收机和发射机。所述交互设备 100的系统架构中还包括音频子系统 226,
所述音频子系统 226, 用来实现所述交互设备的声音拾取或者音频信号播放的 功能, 所述音频子系统 226包括扬声器 228和麦克风 230 来辅助实现上述的 语音拾取及音频信号播放功能。所述交互设备 100的系统架构中还包括 I/O子 系统 240, 所述 I/O子系统 240用以使所述交互设备 100实现输入输出控制。 所述 I/O子系统 240可以包括触摸屏控制器 242和 /或其它(一个或多个 )输 入控制器 244。 触摸屏控制器 242可以连接到触摸屏 246。 触摸屏 246和触摸 屏控制器 242 可以使用多种触敏技术中的任一者来检测触摸以及触摸的移动 或中断,所述触摸技术包括但不限于容性的、抗性的、红外的和表面声波技术, 以及用于利用触摸屏 246 来实现确定一个或多个触摸点的其它接近感测阵列 或其它元件。 所述输入控制器 244可以连接到其它输入 /控制设备 248, 所述 其他输入 /控制设备 248可以是一个或多个按钮、 摇臂开关、 拇指旋转开关、 红外端口、 USB端口和 /或诸如铁笔之类的点选设备。 此外, 所述触摸屏 246 也可以用来呈现虚拟的按钮和 /或键盘以实现对所述交互设备的输入控制。所 述交互设备 100的系统架构 200的存储器接口 202可以连接到存储器 250。 存 储器 250可以是高速随机存取存储器和 /或非易失性存储器,例如一个或多个 磁盘存储设备, 一个或多个光学存储设备和 /或闪存。存储器可以存储操作系 统 252, 所述操作系统 252可以包括用于处理基本系统服务和用于执行依赖硬 件的任务的指令。所述存储器 250还可存储多个可执行程序, 所述可执行程序 可以是音乐播放程序 254、 网络浏览程序 256、 图像处理程序 258、 语音通信 程序 260、 短消息通信程序 262、 文件索引 /查找程序 264、 图形化用户界面生 成程序 266, 或者其他具有各种功能的应用程序。 以上,介绍了承载本发明的交互界面及交互方法的一种示例性的交互设备
100以及所述交互设备的系统架构的。 以下, 将以依托上述示例性的交互设备
100为基础来介绍本发明的具体实施例。 请参阅图 3 , 为本发明实施例提供的一种交互设备 100的交互界面 300, 成程序 266来生成, 所述交互界面 300用以通过可视化对象的方式将所述 100 所具有的各种系统功能和 /或应用功能呈现给用户, 所述系统功能或应用功能 包括但不限于所述存储器 250内储存的各种程序所具备的功能。可以理解,本 发明中所述交互设备 100通过上述的一个或者多个物理元件以及一种或者多
300实现所述交互设备 100与用户之间的交互, 其中所述的各种物理元件及可 序的搭配而不同, 在本发明实施例中并不做具体限制, 此外, 参与到上述的交 互界面 300的生成及实现通过上述交互界面 300与所述交互设备 100之间实现 例中也不做具体限制, 为方便介绍本发明实施例的技术方案,将参与实现生成 所述交互界面 300的物理元件、可执行程序或者物理元件与可执行程序的组合 统一定义为界面交互单元, 将通过所述交互界面 300实现与所述交互设备 100 之间的交互的物理元件、可执行程序或者物理元件与可执行程序的组合统一定 义为处理单元。
本发明所述交互界面 300包括由多个显示边界 302组成的显示区域 304, 其中所述多个显示边界 302中相邻接的显示边界 302之间生成有夹角区 306; 所述界面交互单元用于在所述显示区域 304对应的至少一个所述夹角区 306
的位置处生成两条第一边界 310, 所述两条第一边界 310在所述显示区域 304 内互不相交且分别横跨所述夹角区 306后与所述夹角区 306两侧的所述显示边 界 302相交。 所述两条第一边界 310与所述夹角区 306两侧的所述显示边界 302构成主菜单选择区域 308。 所述主菜单选择区域 308内包括可选对象 312, 其中,所述处理单元用于在所述可选对象 312用于被选中并朝所述主菜单选择 区域 308的两条第一边界 310中的任意一条第一边界 310所在位置移动且所述 被选中的可选对象 312越过一预定位置时,将所述主菜单选择区域 308中的被 选中的可选对象 312及预定的与所述被选中的可选对象 312处于同一级的可选 对象替换为预定的与所述被选中的可选对象 312相关联的上一级可选对象 316 或下一级可选对象 318。 所述显示区域 304为所述交互界面 300的全部或者一部分。根据不同的使 用方式及设计方式,在一些场景下所述交互界面 300全部可用作呈现图形化的 显示对象, 此时, 所述显示区域 304的显示边界 302即为所述交互界面 300 的边界, 例如, 在某些场景下, 所述交互界面 300的边界为触摸屏幕的边缘, 此时所述显示区域 304的边界即为所述触摸屏幕的边缘。在另一些场景下, 所 述交互界面 300的部分用作呈现图形化的显示对象,而另外一部分则用作操作 区, 比如字符输入键盘或电话号码拨号键等, 此事, 所述显示区域 304仅仅占 据所述交互界面 300的一部分, 而所述显示区域 304则由沿着所述交互界面 300横纵坐标定义的直线或曲线形的显示边界 302所围成的区域。 通常所述显 示区域 304包括有限条显示边界 302, 比如为包括 4条显示边界 302的矩形, 或者包括三条边界 302的三角形,或则包括五条或者六条显示边界 302构成的 多变形,在这种情况下,在相邻的所述显示边界 302之间将会生成所述夹角区
306。通常, 为了能够使显示区域 304的显示内容以及显示方式符合人体工学, 所述显示区域 304为包括 4条显示边界 302的矩形,且所述显示区域 304与所 述交互界面 300的底部边界重合。 在所述显示区域 304与所述交互界面 300 的底部边界重合时,所述显示区域 304的相邻的两条显示边界 302之间的夹角 区 306则为用户进行拇指操作时最容易被触及的位置,在此位置设置所述主菜 单选择区域 308 将为用户的操作带来极大的便利, 即, 所述主菜单选择区域 述主菜单内 308的可选对象 314进行操作,这样的实际方式较为符合用户人体 工学设计, 所述主菜单选择区域 308的位置对于用户来说更容易获取和操作, 不会因为长期操作而造成用户肢体的疲劳和损伤。 可选择地, 所述显示区域 304可以根据个人的使用习惯及喜好随意的设置。 所述主菜单选择区域 308生成在所述夹角区 306内,所述主菜单选择区域 308用于以图形化的方式向用户展示多个待选对象, 即在所述所述主菜单选择 区域 308内包括可选对象 312。 在一种场景下, 所述主菜单选择区域 308可以 是条带状, 即所述主菜单选择区域 308包括两条第一边界 310, 所述主菜单选 择区域 308的两条第一边界 310在所述显示区域 304内互不相交且分别横跨所 述夹角区 306后与所述夹角区 306两侧的所述显示边界 302相交。所述两条第 一边界 310以及与所述两条第一边界 310相交的显示边界 302共同构成了所述 主菜单选择区域 308。可选择地,所述第一边界 310可以是直线形或者曲线形, 所述曲线形以弧形为较佳实施方案。可以理解, 所述主菜单选择区域 208也可 以根据用户的使用的喜好来设置成为各种特定的形状, 比如阶梯形或螺旋形 等。
所述可选对象 312包含在所述主菜单选择区域 308内, 所述可选对象 312 用于以图形化的方式向用户呈现各种系统资源、 文件资源或者可执行程序入 口。所述系统资源可以是所述交互设备 100的内存配置、电源、显示器的亮度、 音量、 无线通信设备状态等支持所述交互设备 100运作以实现各种功能的资 源。 所述文件资源可以指存储在所述存储器 250内各种数据, 如视频文件、 文 档、 图片、 音乐、 联系人等。 所述可执行程序可以是所述音乐播放程序 254、 网络浏览程序 256、 图像处理程序 258、 语音通信程序 260、 短消息通信程序 262、 文件索引 /查找程序 264、 图形化用户界面生成程序 266, 或者其他具有 各种功能的应用程序。 所述可选对象 312 可用以被选中后激活与该可选对象 312对应的功能, 比如打开所述交互设备 100的各种系统资源的配置界面、 访 问存储在所述存储器 250内的各种数据、或者执行各种对应的程序等。在一些 场景下, 所述可选对象 312可以为一层级架构中位于中间位置的一个对象, 该 因子具有上一级的可选对象,还具有下一级的可选对象,在选择这种具有层级 架构的可选对象 312时,则需要在以逐级展开的方式或者逐级收敛的方式来寻 找对应的可选对象,本发明实施例提供的较佳实施方式以选中并朝不同的方向 移动来确定实现获取此时可选对象 312 的上一级可选对象或者下一级可选对 象, 具体地, 请参阅图 3A及 3B, 所述可选对象 312用于被选中并朝所述主 菜单选择区域 308的两条第一边界 310中的任意一条第一边界 310所在位置移 动且在所述被选中的可选对象 312越过一预定位置时,以将所述被选中的可选 对象 312及与所述被选中的可选对象 312处于同一级的可选对象 314替换为与 所述被选中的可选对象相关联的下一级可选对象 318或上一级可选对象 316。 以选择音乐为例,当代表音乐文件选取及播放的可选对象 312被选中并朝所述
主菜单选择区域 308的第一边界 310方向移动时,可将所述可选对象 312下的 代表音乐不同曲风的可选对象 316, 比如乡村、 爵士、 流行、 民族等, 来替代 所述可选对象 312以及与所述可选对象 312处于同一级的可选对象 314, 对应 地,而所述被选中的可选对象 312以及与所述可选对象 312处于同一级的可选 对象 314则都将移出所述主菜单选择区域 308。 通常, 音乐文件可以根据其不 同的曲风划分为乡村、 爵士、 流行、 民族等, 在每种曲风下还可以根据语言划 分为中文、 英文、 日文、 韩文等, 在不同的语言种类下还可以根据演唱者的性 别划分为男性及女性,在性别的种类下还可以将所述音乐文件划分为不同的专 辑, 以这种方式来划分的音乐文件可以通过本发明提供交互界面进行管理, 若 当前显示在所述主菜单选择区域 308内的是代表曲目为中文、 英文、 日文、 韩 文的可选对象 312, 那么所述代表曲目的曲风如乡村、 爵士、 流行、 民族的可 选对象则作为可选对象 312的上一级可选对象,而所述代表曲目演唱者性别如 男性、 女性则作为所述可选对象 312的下一级可选对象 316。 所述的预定位置 是根据用户设定或者缺省设置的用以判断是否进行主菜单选择区域 308 内的 可选对象 312的切换的临界判断条件, 即, 当所述可选对象 312被选中后移动 至越过所述预定位置时, 则根据可选对象 312的移动方向来启动可选对象 312 的切换,所述预定位置可以是设置在所述两条第一边界 310之间的任意一条临 界线, 或者也可以是所述两条第一边界 310本身。 本发明实施例提供的一种交互设备 100的交互界面 300, 通过将主菜单选 择 308设置在显示区域 304的拐角处,并将可选对象 312呈现在所述主菜单选 择区域 308内供用户选择,且所述可选对象 312可用于被选中后朝所述主菜单 选择区域 308的边界即第一边界 310所在方向移动从而实现对被选中的可选对
象 312的上一级可选对象或者下一级可选对象的更替及选取,从而使整个交互 界面 300与用户之间的交互方式更加符合人体工学的设计需求,从而方便用户 通过该交互界面 300来实现简便、 轻松、 快捷的交互操作。 进一步地, 请参阅图 4、 4A及 4B, 本发明另一实施例提供的一种交互界 面 400, 所述交互界面 400在所述交互界面 300的基础上增加了子菜单选择区 域 402, 即, 所述界面交互单元在所述主菜单选择区域 308之外且邻近所述主 菜单选择选择区域 308的所述显示区域 304内形成一条第二边界 404及与第三 边界 405 , 所述第二边界 404与所述第三边界 405构成所述的子菜单选择区域 402, 其中, 所述第三边界 405相对所述第二边界 404距离所述主菜单选择区 选对象 312相关联的上一级可选对象 316或下一级可选对象 318。 在所述主菜 单选择区域 308内的可选对像 312未被选中时,所述子菜单选择区域 402包括 与主菜单选择区域 308内的默认的可选对象 312相关联的上一级可选对象 406 或下一级可选对象 408; 相应, 所述处理单元, 还用于, 在所述子菜单选择区 域 402内的所述上一级可选对象 316、 406或下一级可选对象 318、 408被选中 并朝所述子菜单选择区域 402的第二边界 404所在位置移动且所述被选中的上 一级可选对象 316、 406或者下一级可选对象 318、 408越过一预定位置时, 用 所述被选中的上一级可选对象 316、 406或者下一级可选对象 318、 408替换所 述主菜单选择区域 308内的所述可选对象 312。 本实施方式中所述子菜单选择区域 402以邻近所述主菜单选择区域 308的 方式设置以表示所述子菜单选择区域 402与所述主菜单选择区域 308之间的关 联关系。 所述子菜单选择区域 402可以是与所述主菜单选择区域 308相接, 即
所述子菜单选择区域 402的第二边界 404与所述主菜单选择区域 308的第一边 界 310之间相互重叠, 也即所述子菜单选择区域 402与所述主菜单选择区域 308共用边界。 所述子菜单选择区域 402可以根据需求设置在所述主菜单选择 区域 308与所述夹角区 306之间的区域内 ,也可以生成在所述主菜单选择区域 308远离所述夹角区 306的一侧。 所述子菜单选择区域 402用以显示与用以显 示与主菜单选择区域 308内的可选对象 312相关联的上一级可选对象 406或下 一级可选对象 408, 以管理音乐文件为例, 如果在所述主菜单选择区域 308内 呈现的是代表歌曲的语言种类如中文、 英文、 日文、 韩文的可选对象, 那么在 所述子菜单选择区域 402内则可呈现代表所述主菜单选择区域内 308内的各种 语言的音乐文件的曲风如中文、 英文、 日文、 韩文的可选对象, 或者在所述子 菜单选择区域 402内则可呈现与代表所述主菜单选择区域内 308内的各种语言 中的某种语言下的演唱者的性别可选对象。 通过在所述子菜单选择区域 402 内呈现于所述主菜单选择区域内 308内的可选对象 312相关联的上一级可选对 象 406或者下一级可选对象 408可以使使用者能够了解此时所管理的对象如音 乐文件的局部架构,通过对局部架构的了解可以是使用者能够合理根据这种架 构来合理的做出相应的操作动作, 即, 向哪个方向移动所述可选对象 312或者 移动所述上一级可选对象 406或者下一级可选对象 408便能获取自己所需要的 目标对象。 本发明实施方式中, 所述主菜单选择区域 308 内的可选对象 312 相关联的上一级可选对象 406或下一级可选对象 408用于被选中并朝所述子菜 单选择区域 402的第二边界 404所在位置移动以替代所述主菜单选择区域 308 内的可选对象 312, 也就是说所述呈现在所述子菜单选择区域 402内的上一级 可选对象 406或者下一级可选对象 408在朝所述主菜单选择区域 308方向移动
时能够使所述主菜单选择区域 308内的显示内容同步的响应,即本实施方式中 所给出的通过所述上一级可选对象 406或者下一级可选对象 408替换所述主菜 单选择区域 308内的可选对象 312, 在保持正确呈现可选对象 312所在文件或 者系统的层级架构的基础上方便用户快速的浏览及获取所需的目标对象。 进一步地, 请参阅图 5及 5A, 在图 4中所提供的实施方式的基础上, 本 发明实施方式还包括:当所述的处理单元用所述与主菜单选择区域 308内的可 选对象 312相关联的上一级可选对象 316、 406或下一级可选对象 318、 408 被选中并朝所述子菜单选择区域 402的第二边界 404所在位置移动以替代所述 主菜单选择区域 308内被选中的可选对象 312, 所述的界面交互单元还用于在 所述子菜选择区 402用于显示与所述被选中的上一级可选对象 316、 406相关 联的更上一级可选对象 502或与所述被选中的下一级可选对象 318、 408相关 联的更下一级可选对象 504。 在本发明所提供的实施方式中, 当所述子菜单选 择区域 402内的与主菜单选择区域 308内的可选对象 312相关联的上一级可选 对象 406或下一级可选对象 408被选中并朝所述主菜单选择区域 308所在方向 移动时,保证所述子菜单选择区域 402能够根据所述可选对象所处的文件或者 系统的层架架构对应的更新其所呈现的内容,以进一步方便用户浏览及选择目 标对象。 进一步地, 请参阅图 6及 6A, 在图 4中所提供的实施方式的基础上, 本 发明实施方式还包括:在所述主菜单选择区域 308内的可选对象 312被选中并 朝与所述子菜单选择区域 402的第二边界 404相邻的所述第一边界 310移动时 且所述被选中的可选对象 312越过一预定位置时,所述处理单元用所述主菜单 选择区域 308内的可选对象 312替换所述子菜单选择区域 402内与所述被选中
的可选对象 312相关联的上一级可选对象 316、 406或者下一级可选对象 318、 408。 在本发明所提供的实施方式中, 当所述主菜单选择区域 308内的可选对 象 312被选中并朝所述子菜单选择区域 402所在方向移动时,保证所述主菜单 选择区域 308 能够根据所述可选对象所处的文件或者系统的层架架构对应的 更新其所呈现的内容, 以进一步方便用户浏览及选择目标对象。 进一步地, 在图 4中所提供的实施方式的基础上, 请参阅图 7及 7A, 第 三边界 405所述第三边界 405与所述第二边界 404在所述显示区域 304内互不 相交,所述与主菜单选择区域 308内的可选对象 312相关联的上一级可选对象 406或下一级可选对象 408位于所述第二边界 404与第三边界 405之间,其中, 所述处理单元还用于,在所述与主菜单选择区域 308内的可选对象 312相关联 的上一级可选对象 316、 406或下一级可选对象 318、 408被选中并朝所述子菜 单选择区域 402的第三边界 405所在位置移动且所述上一级可选对象 316、406 或下一级可选对象 318、 408越过一预定位置时, 将所述子菜单选择区域 402 的所述上一级可选对象 316、 406或下一级可选对象 418、 408替换为所述主菜 单选择区域 308内的可选对象 312。 在本发明所提供的实施方式中, 当所述子 菜单选择区域 402内的上一级可选对象 406或下一级可选对象 408被选中并朝 背离所述主菜单选择区域 308所在方向即所述第三边界 405所在位置移动时, 保证所述主菜单选择区域 308 内的可选对象 312能够替换所述子菜单选额区 402内所呈现的内容, 以使所述子菜单选择区域 402内的呈现内容可以根据所 述可选对象所处的文件或者系统的层架架构对应的更新其所呈现的内容,以进 一步方便用户浏览及选择目标对象。 可以理解, 在本实施方式中, 当所述与主 菜单选择区域 308内的可选对象 312相关联的上一级可选对象 406或下一级可
选对象 408被选中并朝所述子菜单选择区域 402的第三边界 405所在位置移动 以将所述上一级可选对象 406或下一级可选对象 408替换为所述主菜单选择区 域 308内的可选对象 312时,若所述被选中的上一级可选对象 406无相关联的 更上一级可选对象或与所述被选中的下一级可选对象 408 无相关联的更下一 级可选对象时,所述主菜选择区 308用于呈现空白以使用户知道此时已经到了 所查看对象所处的文件或者系统的最高层或者最底层。 进一步地, 在图 4中所提供的实施方式的基础上, 请参阅图 8 , 本发明提 供的另一实施方式还包括: 所述界面交互单元,在所述夹角区 306及所述主菜 单选择区域 308之间生成次显示区域 802, 所述次显示区域 802包括菜单激活 控件 804, 对应, 所述处理单元用于在所述菜单激活控件 804被选中时激活所 述显示区域 304内主菜单选择区域 308。该实施方式中,通过在所述夹角区 306 内生成一菜单激活控件 804以在需要时将所述主菜单选择区域 308激活或者呈 现出来, 而在不需要时则将所述主菜单 308隐藏,释放所述显示区域 304的显
进一步地,本发明实施例所提供的交互装置 100的交互界面 300可通过触 摸感应技术与使用者之间进行交互, 即所述界面交互单元包括触摸感应界面, 在所述交互界面上的触摸动作,所述触摸动作包括用以选中所述显示区域内的 可选对象的触击, 以及移动所述被选中的可选对象滑动。通过触摸感应技术实 现交互界面与用户之间的交互操作可以使用户与设备之间的交互更加的便捷 更力口的顺畅。
进一步地, 本发明实施例所提供的实施方式中, 所述处理单元还用于, 在 所述主菜单选择区域 308 内的可选对象 312被选中后沿所述主菜单选择区域 308的第一边界 310的延伸方向移动时,以轮替方式在所述主菜单选择区域 308 内显示与所述预定的与所述被选中的可选对象 312 处于同一级的可选对象 312。 在该实施方式中, 在所述主菜单选择区域 308内的可选对象 312可以沿 着所述主菜单选择区域 308的第一边界 310的延伸方向移动,从而将多个可选 对象 312呈现在所述主菜单选择区域 308内,当所述主菜单选择区域 308内的 可选对象 312的数量较多, 无法同时都显示在所述主菜单选择区域 308内时, 便可以通过滑动当前显示在所述主菜单选择区域 308内的可选对象 312以将未 显示的可选对象显示出来, 从而方便用户查找目标对象。 进一步地, 可以理解, 本发明实施例所提供的主菜单选择区域及子菜单选 择区域的边界可以为各种形状, 优选地, 所述主菜单选择区域第一边界, 以及 所述子菜单选择区域的第二边界及第三边界均为弧形。 请参阅图 9, 本发明实施例提供的一种交互方法 900, 所述交互方法 900 用以向用户提供一可操作的用户界面并通过所述用户界面和用户之间实现交 互操作。 所述交互方法 900包括:
S910显示两条第一边界于显示区域内, 其中, 所述显示区域包括多个显 示边界,每两个相邻的所述显示边界之间生成有夹角区, 所述两条第一边界位 于所述显示区域内与所述至少一个夹角区对应的位置处,所述两条第一边界在 所述显示区域内互不相交且分别横跨所述夹角区与所述夹角区两侧的所述显 示边界相交,所述两条第一边界与所述的夹角区两侧的所述显示边界构成主菜 单选择区域;
该步骤中,交互设备可以通过调用图形化用户界面生成程序 266来根据预 定的界面模型来生成一交互界面, 所生成的交互界面与本发明实施例在图 3 中所呈现的交互界面 300相同, 所述交互界面 300 包括由多个显示边界 302 组成的显示区域 304, 其中所述多个显示边界 302中相邻接的显示边界 302之 间生成有夹角区 306; 所述显示区域 304的至少一个夹角区 306内生成有一个 主菜单选择区域 308, 所述主菜单选择区域 308包括两条第一边界 310, 所述 主菜单选择区域 308的两条第一边界 310在所述显示区域 304内互不相交且分 别横跨所述夹角区 306后与所述夹角区 306两侧的所述显示边界 302相交。所 述主菜单选择区域 308的位置符合人体工学设计,能够降低用户在操作过程中 肢体的疲劳度, 即, 所述主菜单选择区域 308的位置对于用户来说更容易获取 和操作, 不会因为长期操作而造成用户肢体的疲劳和损伤。
S920 显示可选对象于所述显示区域内, 所述可选对象位于所述显示区域 内的所述主菜单选择区域内。 通过上述步骤中所生成主菜单选择区域来确定一个预定的可选对象显示 范围, 在该由所述主菜单选择区域所确定的显示范围内将可选对象呈现出来, 该显示所述可选对象的步骤和显示所述主菜单选择区域的动作可以同时进行, 也可以按照时序生成所述主菜单选择区域, 接着生成所述可选对象。
S930检测发生于所述主菜单选择区域内的第一触摸动作以获取所述第一 触摸动作所发生的位置。 通过前述步骤即可生成交互界面,用户可以通过所生成的交互界面来实现
交互设备之间的交互通过触摸的方式来进行,也即,上述所生成的交互界面呈 现于一个触摸显示屏上,用户可以通过在触摸显示屏上的触摸动作来进行与所 述交互设备的交互。在交互过程中, 所述触摸显示屏将检测发生在所述主菜单 选择区域内的第一触摸动作, 以获取所述第一触摸动作所发生的位置, 以通过 所述第一触摸动作所发生的位置来确定该第一触摸动作所对应的目标对象。
S940根据所获取的第一触摸动作发生的位置确定第一该触摸动作所选中 的可选对象。 当所述触摸显示屏获取到了所述第一触摸动作发生的具体位置后,将所述 其具体的位置反馈给交互设备的处理器,所述交互设备的处理器将根据所述触 摸动作发生的位置以及所述交互界面的模型数据来确定对应该第一触摸动作 发生的具体位置处所对应的目标对象也即所述可选对象,当所述可选对象确定 后所述处理器可以使所述显示屏通过视觉、听觉、或者触觉的提示的方式来提 示被选中的可选对象, 比如可以放大所述被选中的可选对象, 或者发出代表选 中的声音, 或者以交互设备的机身震动的方式来表示所述目标对象被选中了。 S950检测朝向所述主菜单选择区域的任意一条第一边界所在方向的所述 第一触摸动作的第一触摸轨迹;
S960 沿所述第一触摸轨迹移动由所述第一触摸动作选中的所述可选对象 且在由所述第一触摸动作选中的所述可选对象越过一预定位置时,将由所述第 一触摸动作所选中的可选对象及预定的与所述被选中的可选对象处于同一级 的可选对象替换为预定的与所述被选中的可选对象相关联的上一级可选对象 或下一级可选对象。
当用户通过所述第一触摸动作将一可选对象选中后,可以根据其需求来获 取与所述可选对象相关的上一级可选对象或者下以及可选对象,为了方便用户 操作, 以及符合人体工学设计, 本发明实施方式中以朝所述菜单选择区域的任 意一条第一边界所在方向的滑动动作作为触发或者获取与所述被选中的可选 对象相关的上一级可选对象或者下一级可选对象触发指令, 即, 当所述第一触 摸动作选中了某一可选对象后,所述触摸显示屏将继续确定所述第一触摸动作 的触摸轨迹, 并将其所获取的触摸轨迹反馈给处理器, 处理器将根据所述第一 触摸动作的触摸轨迹来移动所述被选中的可选对象,当所述第一触摸动作的触 摸轨迹朝向所述主菜单选择区域的第一边界所在方向 ,且所述移动轨迹在所述 显示区域的跨度满足预定的规则或者阈值时,即所述第一触摸动作选中的所述 可选对象沿所述的移动轨迹越过一预定位置时 ,所述处理器将发出可选对象更 换的指令, 即,将由所述第一触摸动作所选中的可选对象及与所述被选中的可 选对象处于同一级的可选对象替换为与所述被选中的可选对象相关联的上一 级可选对象或下一级可选对象。 本发明实施例提供的所述交互方法通过向用户提供一种符合人体工学,便 于操作的交互界面,使用户能够方便快捷的通过触摸操作来浏览以及选则目标 对象以简化交互过程,提高交互效率, 并降低交互过程对用户肢体造成的疲劳 度。 请参阅图 10, 本发明实施例提供所述交互方法 900, 进一步包括: S1010显示第二边界及第三边界于所述显示区域内, 所述第二边界与第三 边界位于所述主菜单选择区域之外且所述第三边界相对所述第二边界距离所 述主菜单选择区域距离更远;所述第二边界与所述第三边界构成子菜单选择区
域; 为了方便用户更加直观的了解或者查看一目标对象所在的系统或者文件 的实际架构, 并且使用户与所述交互设备之间的交互更加的流畅,在本发明实 施例提供的所述交互方法 900所提供的主菜单选择区域的基础上,通过调用所 述图形化用户界面生成程序 266 来根据预定的界面模型来生成一包括所述主 菜单选则区 308及子菜单选择区域 402的交互界面,该交互界面与本发明实施 例在图 4中所呈现的交互界面 400相同, 即,在所述主菜单选择区域 308邻近 处生成有子菜单选择区域 402, 所述子菜单选择区域 402包括与所述主菜单选 择区域 308的一条第一边界 310相邻的一条第二边界 404以及一条第三边界 405 , 所述第三边界 405相对所述第二边界 404距离所述主菜单选择区域 308 的距离更远。 该步骤可以跟前述的步骤 S910同步进行, 也可以根据不同的需 求在步骤 S910之后进行。 通过执行上述 S1010后, 处理器在所述显示区域内 又定义了一个菜单选择区域用以进一步的将目标对象显示在由所述子菜单选 择区域 402内, 以呈现更多的目标对象的信息给用户, 同时能够将目标对象所 在的系统或者文件的具体的层级架构直观的展现给用户,方便用户快速的查找 所需要的目标对象。
S1020 显示所述预定的与所述被选中的可选对象相关联的上一级可选对 象或下一级可选对象,所述预定的与所述被选中的可选对象相关联的上一级可 选对象或下一级可选对象位于所述子菜单选择区域内。 该步骤将与所述可选对象相关联的一级可选对象或下一级可选对象显示 在所述子菜单选择区域内, 可以为用户提供更多关于可选对象的信息。
S 1030检测发生于所述子菜单选择区域内的第二触摸动作以获取所述第 二触摸动作所发生的位置。 通过前述步骤即可生成交互界面,用户可以通过所生成的交互界面来实现 交互设备之间的交互通过触摸的方式来进行,也即,上述所生成的交互界面呈 现于一个触摸显示屏上,用户可以通过在触摸显示屏上的触摸动作来进行与所 述交互设备的交互。在交互过程中, 所述触摸显示屏将检测发生在所述主菜单 选择区域内的第二触摸动作, 以获取所述第二触摸动作所发生的位置, 以通过 所述第二触摸动作所发生的位置来确定该第二触摸动作所对应的目标对象。
S1040根据所获取的第二触摸动作发生的位置确定该第二触摸动作所选 中的所述上一级可选对象或下一级可选对象。 当所述触摸显示屏获取到了所述第二触摸动作发生的具体位置后,将所述 其具体的位置反馈给交互设备的处理器,所述交互设备的处理器将根据所述触 摸动作发生的位置以及所述交互界面的模型数据来确定对应该第二触摸动作 发生的具体位置处所对应的目标对象,当作为所述目标对象的所述可选对象确 定后所述处理器可以使所述显示屏通过视觉、听觉、或者触觉的提示的方式来 提示被选中的可选对象, 比如可以放大所述被选中的可选对象, 或者发出代表 选中的声音, 或者以交互设备的机身震动的方式来表示所述目标对象被选中 了。 S1050检测朝向所述子菜单选择区域的第二边界所在方向的所述第二触 摸动作的第二触摸轨迹。
S 1060沿所述触第二触摸轨迹移动由所述第二触摸动作选中的所述上一级 可选对象或下一级可选对象且在由所述第二触摸动作选中的所述上一级可选 对象或下一级可选对象越过一预定位置时用由所述第二所述触摸动作所选中 的所述上一级可选对象或下一级可选对象以及与所述被选中的上一级可选对 象或者被选中的下一级可选对象处于同一级的可选对象替换所述主菜单选择 区域内的可选对象。 当用户通过所述第二触摸动作将与可选对象相关联的上一级可选对象或 下一级可选对象选中后,可以根据其需求来获取与所述可选对象相关的上一级 可选对象或者下以及可选对象相关的更上一级可选对象或者更下一级可选对 象, 为了方便用户操作, 以及符合人体工学设计, 本发明实施方式中以朝所述 子菜单选择区域的任意一条第二边界所在方向的滑动动作作为触发或者获取 与所述可选对象相关的上一级可选对象或者下一级可选对象相关的更上一级 可选对象或者更下一可选对象触发指令, 即, 当所述第二触摸动作选中了与可 选对象相关的上一级可选对象或者下一级可选对象相关的更上一级可选对象 或者更下一可选对象后,所述触摸显示屏将继续确定所述第二触摸动作的触摸 轨迹, 并将其所获取的触摸轨迹反馈给处理器,处理器将根据所述第二触摸动 作的触摸轨迹来移动所述被选中的更上一级可选对象或者更下一可选对象,当 所述第二触摸动作的触摸轨迹朝向所述子菜单选择区域的第二边界所在方向, 且所述移动轨迹在所述显示区域的跨度满足预定的规则或者阈值时,所述处理 器将发出可选对象更换的指令, 即, 用由所述第二所述触摸动作所选中的所述 上一级可选对象或下一级可选对象以及与所述被选中的上一级可选对象或者 被选中的下一级可选对象处于同一级的可选对象替换所述主菜单选择区域内
的可选对象。 本发明实施例提供的所述交互方法通过向用户提供一种符合人体工学,便 于操作的交互界面,使用户能够方便快捷的通过触摸操作来浏览以及选则目标 对象以简化交互过程,提高交互效率, 并降低交互过程对用户肢体造成的疲劳 度。 请参阅图 11 , 本发明实施例提供所述交互方法 900, 在用由所述第二所述 触摸动作所选中的所述上一级可选对象或下一级可选对象以及与所述被选中 的上一级可选对象或者被选中的下一级可选对象处于同一级的可选对象替换 所述主菜单选择区域内的可选对象时, 所述方法还包括: S1110 在所述子菜单选择区域内显示与所述被选中的上一级可选对象相 关联的更上一级可选对象或与所述被选中的下一级可选对象相关联的更下一 级可选对象。 请参阅图 12, 本发明实施例提供所述交互方法 900中, 所述步骤 S950, 即所述检测朝向所述主菜单选择区域的任意一条第一边界所在方向的所述第 一触摸动作的第一触摸轨迹具体包括:
S1210检测朝向与所述子菜单的第二边界相邻的所述主菜单选择区域的第 一边界所在方向的所述第一触摸动作的第一触摸轨迹; 相应, 所述步骤 S960, 即在所述沿所述第一触摸轨迹移动由所述第一触 摸动作选中的所述可选对象,并将由所述第一触摸动作所选中的可选对象及与 所述被选中的可选对象处于同一级的可选对象替换为与所述被选中的可选对 象相关联的上一级可选对象或下一级可选对象时, 所述方法还包括:
S1220用所述主菜单选择区域内的所述可选对象替换所述子菜单选择区域 内的所述上一级可选对象或者下一级可选对象。 请参阅图 13 , 本发明实施例提供所述交互方法 900 中, 所述步骤 S1010 所生成的所述第三边界与所述第二边界在所述显示区域内互不相交且分别横 跨所述夹角区与所述夹角区两侧的所述显示边界相交, 所述第二边界、第三边 界以及所述夹角区两侧的所述显示边界构成所述子菜单选择区域; 相应, 所述方法 900还包括:
S 1310检测发生于所述子菜单选择区域内的第三触摸动作以获取所述第三 触摸动作所发生的位置; S1320根据所获取的第三触摸动作发生的位置确定该第三触摸动作所选中 的所述子菜单选择区域内的上一级可选对象或下一级可选对象;
S1330检测朝向所述子菜单选择区域的第三边界所在方向的所述第三触 摸动作的第三触摸轨迹;
S 1340沿所述触第三摸轨迹移动由所述第三触摸动作选中的所述子菜单选 择区域内的所述上一级可选对象或下一级可选对象,并在所述被选择的上一级 可选对象或下一级可选对象越过一预定位置时将由第二所述触摸动作所选中 的上一级可选对象或下一级可选对象以及与所述被选中的上一级可选对象或 者被选中的下一级可选对象处于同一级的可选对象替换为所述主菜单选择区 域内的可选对象。 请参阅图 14, 本发明实施例提供所述交互方法 900的步骤 S1350, 即在所
述沿所述触第三摸轨迹移动由所述第三触摸动作选中的与主菜单选择区域内 的可选对象相关联的上一级可选对象或下一级可选对象 ,并将由第二所述触摸 动作所选中的上一级可选对象或下一级可选对象以及与所述被选中的上一级 可选对象或者被选中的下一级可选对象处于同一级的可选对象替换为所述主 菜单选择区域内的可选对象时, 所述方法还包括:
S1410 在所述被选中的上一级可选对象无相关联的更上一级可选对象或 与所述被选中的下一级可选对象无相关联的更下一级可选对象时,显示空白于 所述主菜选择区内。 请参阅图 15 , 本发明实施例提供所述交互方法 900, 还包括: S1510显示菜单激活控件于次显示区域,所述次显示区域位于与所述主菜 单选择区域对应的所述夹角区内; 所述菜单激活控件生成在所述次显示区域内, 其占用的显示空间较小, 用 以供用户唤醒或者激活隐藏的所述主菜单选择区域;而在不需要时释放出所述 显示区域所占用的显示空间。 S1520检测位于所述次显示区域内并与所述菜单激活控件对应的第四触 摸动作; 相应, 所述步骤 S910显示主菜单选择区域于显示区域内具体包括:
S1530根据所述第四触摸动作显示主菜单选择区域于所述显示区域内。 当所述菜单激活控件被触及时,主菜单选择区域便可显示与所述显示区域 内供用户使用或者操作。
请参阅图 16, 本发明实施例提供所述交互方法 900, 还包括:
S 1610检测发生于所述主菜单选择区域内的第五触摸动作以获取所述第 五触摸动作所发生的位置;
S 1620 根据所获取的第五触摸动作发生的位置确定第五该触摸动作所选 中的可选对象;
S 1630检测沿所述主菜单选择区域的第一边界的延伸方向移动的所述第 五触摸动作的第五触摸轨迹;
S 1640 沿所述第五触摸轨迹移动由所述第五触摸动作选中的可选对象,并 将与由所述第五触摸动作所选中的可选对象同一级的可选对象以轮替的方式 显示于所述主菜单选择区域内。 此外,可以理解地,上述的交互方法中 900中的步骤 S1610至 S1640也可 在唤醒所述主菜单的同同时或者在唤醒所述主菜单之后唤醒所述的子菜单选 择区域。 该方法中,在所述主菜单选择区域内的可选对象可以在用户的触摸操作下 沿着所述主菜单选择区域的第一边界的延伸方向移动,从而将多个可选对象呈 现在所述主菜单选择区域内, 当所述主菜单选择区域内的可选对象的数量较 多, 无法同时都显示在所述主菜单选择区域内时,便可以通过滑动当前显示在 所述主菜单选择区域 308内的可选对象以将未显示的可选对象显示出来,从而 方便用户查找目标对象。 请参阅图 17,本发明实施例提供的一种交互设备 1700,所述交互设备 1700
用以向用户提供一可操作的用户界面并通过所述用户界面和用户之间实现交 互操作。 所述交互设备 1700包括: 第一显示模块 1710, 用以显示两条第一边界于显示区域内; 其中, 所述 显示区域包括多个显示边界, 每两个相邻的所述显示边界之间生成有夹角区, 所述两条第一边界位于所述显示区域内与所述至少一个所述夹角区对应的位 置处,所述两条第一边界在所述显示区域内互不相交且分别横跨所述夹角区与 所述夹角区两侧的所述显示边界相交,所述两条第一边界与所述的夹角区两侧 的所述显示边界构成主菜单选择区域。 所述的交互设备 1700中的第一显示模块 1710用以在一显示区域内显示主 菜单, 所述主菜单及所述显示区域与所述本发明实施例所提供的交互方法 900 中的步骤 S910中所生成的主菜单及显示区域相同, 相应地, 所述主菜单、 显 示区域的布局方式以及关于所述主菜单及显示区域的布局方式的优点的详细 介绍可以参照本发明实施例所提供的交互方法 900中的步骤 S910的介绍, 为 简洁起见, 在此不再冗述。 所述的第一显示模块 1710用来实现所述交互方法 900中的步骤 S910, 其可以指所述图形化用户界面生成程序 266, 也可以指所 述图形化用户界面生成程序 266 以及调用所述图形化用户界面生成程序 266 的处理器的组合, 或者指所述图形化用户界面生成程序 266, 调用所述图形化 用户界面生成程序 266的处理器以及各种外围辅助器件的组合。 第二显示模块 1720, 用于显示可选对象于所述显示区域内, 其中, 所述 可选对象位于所述显示区域内的所述主菜单选择区域内。 所述的第二显示模块 1720用来实现所述交互方法 900中的步骤 S920, 其
可以指所述图形化用户界面生成程序 266, 也可以指所述图形化用户界面生成 程序 266以及调用所述图形化用户界面生成程序 266的处理器的组合,或者指 所述图形化用户界面生成程序 266, 调用所述图形化用户界面生成程序 266的 处理器以及各种外围辅助器件的组合。 第一检测模块 1730, 用于检测发生于所述主菜单选择区域内的第一触摸 动作以获取所述第一触摸动作所发生的位置。 通过前述步骤即可生成交互界面,用户可以通过所生成的交互界面来实现 交互设备之间的交互通过触摸的方式来进行,也即,上述所生成的交互界面呈 现于一个触摸显示屏上,用户可以通过在触摸显示屏上的触摸动作来进行与所 述交互设备的交互。在交互过程中, 所述检测模块将检测发生在所述主菜单选 择区域内的第一触摸动作, 以获取所述第一触摸动作所发生的位置, 以通过所 述第一触摸动作所发生的位置来确定该第一触摸动作所对应的目标对象。 第一选择模块 1740, 用于根据所获取的第一触摸动作发生的位置确定第 一该触摸动作所选中的可选对象。 当所述第一检测模块 1730 获取到了所述第一触摸动作发生的具体位置 后,将所述其具体的位置反馈给交互设备的处理器, 所述交互设备的第一选择 模块 1740将根据所述触摸动作发生的位置以及所述交互界面的模型数据来确 定对应该第一触摸动作发生的具体位置处所对应的目标对象也即所述可选对 象, 当所述可选对象确定后所述第一选择模块 1740可以通过视觉、 听觉、 或 者触觉的提示的方式来提示被选中的可选对象,比如可以放大所述被选中的可
选对象, 或者发出代表选中的声音,或者以交互设备的机身震动的方式来表示 所述目标对象被选中了。 第一触摸轨迹检测模块 1750, 用于检测朝向所述主菜单选择区域的任意 一条第一边界所在方向的所述第一触摸动作的第一触摸轨迹。 第一对象移动模块 1760, 用于沿所述第一触摸轨迹移动由所述第一触摸 动作选中的所述可选对象且在由所述第一触摸动作选中的所述可选对象越过 一预定位置时,将由所述第一触摸动作所选中的可选对象及预定的与所述被选 中的可选对象处于同一级的可选对象替换为预定的与所述被选中的可选对象 相关联的上一级可选对象或下一级可选对象。 当第一选择模块 1740根据所述第一检测模块 1730所检测到的所述第一触 摸动作将一可选对象选中后,可以根据用户接下来的移动动作来获取与所述可 选对象相关的上一级可选对象或者下以及可选对象, 为了方便用户操作, 以及 符合人体工学设计,本发明实施方式中以朝所述菜单选择区域的任意一条第一
上一级可选对象或者下一级可选对象触发指令,即, 当所述第一选择模块 1740 选中了某一可选对象后, 所述第一触摸轨迹检测模块 1750将继续确定所述第 一触摸动作的触摸轨迹 , 并将其所获取的触摸轨迹反馈给第一对象移动模块 1760, 所述的第一对象移动模块 1760将根据所述第一触摸轨迹检测模块 1750 所检测到的第一触摸动作的的触摸轨迹来移动所述被选中的可选对象,当所述 第一触摸动作的触摸轨迹朝向所述主菜单选择区域的第一边界所在方向,且所 述移动轨迹在所述显示区域的跨度满足预定的规则或者阈值时,所述对象移动
模块将发出可选对象更换的指令, 即,将由所述第一触摸动作所选中的可选对 象及与所述被选中的可选对象处于同一级的可选对象替换为与所述被选中的 可选对象相关联的上一级可选对象或下一级可选对象。 本发明实施例提供的所述交互设备通过向用户提供一种符合人体工学,便 于操作的交互界面,使用户能够方便快捷的通过触摸操作来浏览以及选则目标 对象以简化交互过程,提高交互效率, 并降低交互过程对用户肢体造成的疲劳 度。 请参阅图 18, 本发明实施例提供另一交互设备 1800, 所述交互设备 1800 在所述交互设备 1700的基础上进一步包括: 第三显示模块 1810, 用于显示第二边界及第三边界于所述显示区域内, 所述第二边界与第三边界位于所述主菜单选择区域之外且所述第三边界相对 所述第二边界距离所述主菜单选择区域距离更远;所述第二边界与所述第三边 界构成子菜单选择区域。。 为了方便用户更加直观的了解或者查看一目标对象所在的系统或者文件 的实际架构, 并且使用户与所述交互设备之间的交互更加的流畅,在本发明实 施例提供的所述交互装置 1700所提供的交互界面的基础上, 通过所述的第三 显示模块 1810进一步生成一包含有子菜单选择区域 402的交互界面, 该交互 界面与本发明实施例在图 4中所呈现的交互界面 400相同, 即,在所述主菜单 选择区域 308邻近处生成有子菜单选择区域 402, 所述子菜单选择区域 402包 括与所述主菜单选择区域 308 的一条第一边界 310相邻的一条第二边界 404 及第三边界 405。 本发明实施例中通过所述的第三显示模块 1810所生成的子
菜单选择区域可用以进一步的将目标对象显示在由所述子菜单选择区域 402 内, 以呈现更多的目标对象的信息给用户, 同时能够将目标对象所在的系统或 者文件的具体的层级架构直观的展现给用户,方便用户快速的查找所需要的目 标对象。 第四显示模块 1820, 用于显示与主菜单选择区域内的可选对象相关联的 上一级可选对象或下一级可选对象,所述与主菜单选择区域内的可选对象相关 联的上一级可选对象或下一级可选对象位于所述子菜单选择区域内。 通过所述的第四显示模块 1820将与所述可选对象相关联的一级可选对象 或下一级可选对象显示在所述子菜单选择区域内,可以为用户提供更多关于可 选对象的信息。 第二检测模块 1830, 用于检测发生于所述子菜单选择区域内的第二触摸 动作以获取所述第二触摸动作所发生的位置。 通过所述第三显示模块 1810及第四显示模块 1820生成所述交互界面后, 施方式中,用户与所述交互设备之间的交互访问通过触摸的方式来进行,也即, 上述所生成的交互界面呈现于一个触摸显示屏上,用户可以通过在触摸显示屏 上的触摸动作来进行与所述交互设备的交互。在交互过程中, 所述第二检测模 块 1830检测发生在所述主菜单选择区域内的第二触摸动作, 以获取所述第二 触摸动作所发生的位置,以通过所述第二触摸动作所发生的位置来确定该第二 触摸动作所对应的目标对象。 第二选择模块 1840, 用于根据所获取的第二触摸动作发生的位置确定该
第二触摸动作所选中的与主菜单选择区域内的可选对象相关联的上一级可选 对象或下一级可选对象。 当所述第二检测模块 1830到了所述第二触摸动作发生的具体位置后, 将 所述其具体的位置反馈给交互设备的第二选择模块,所述交互设备的第二选择 模块 1840将根据所述触摸动作发生的位置以及所述交互界面的模型数据来确 定对应该第二触摸动作发生的具体位置处所对应的目标对象,当作为所述目标 对象的所述可选对象确定后所述第二选择模块 1840可以通过视觉、 听觉、 或 者触觉的提示的方式来提示被选中的可选对象,比如可以放大所述被选中的可 选对象, 或者发出代表选中的声音,或者以交互设备的机身震动的方式来表示 所述目标对象被选中了。 第二轨迹检测模块 1850, 用于检测朝向所述子菜单选择区域的第二边界 所在方向的所述第二触摸动作的第二触摸轨迹。 第二对象移动模块 I860, 用于沿所述触第二触摸轨迹移动由所述第二触 摸动作选中的所述上一级可选对象或下一级可选对象且在由所述第二触摸动 作选中的所述上一级可选对象或下一级可选对象越过一预定位置时用由所述 第二所述触摸动作所选中的所述上一级可选对象或下一级可选对象以及与所 述被选中的上一级可选对象或者被选中的下一级可选对象处于同一级的可选 对象替换所述主菜单选择区域内的可选对象。 当所述第二选择模块 1840通过所述第二检测模块 1830所检测到的第二触 摸动作将与可选对象相关联的上一级可选对象或下一级可选对象选中后,可以 根据所述第二轨迹检测模块 1850所检测到的第二触摸动作的第二触摸轨迹来
获取与所述可选对象相关的上一级可选对象或者下以及可选对象相关的更上 一级可选对象或者更下一级可选对象, 为了方便用户操作, 以及符合人体工学 设计,本发明实施方式中以朝所述子菜单选择区域的任意一条第二边界所在方 向的滑动动作作为触发或者获取与所述可选对象相关的上一级可选对象或者 下一级可选对象相关的更上一级可选对象或者更下一可选对象触发指令, 即, 当所述第二选择模块 1840根据所述第二检测模块 1830所检测到的所述第二触 摸动作选中了与可选对象相关的上一级可选对象或者下一级可选对象相关的 更上一级可选对象或者更下一可选对象后, 所述第二轨迹检测模块 1850将检 测所述第二触摸动作的触摸轨迹,并将其所获取的触摸轨迹反馈所述第二对象 移动模块 1860, 所述第二对象移动模块 1860将根据所述第二触摸动作的触摸 轨迹来移动所述被选中的更上一级可选对象或者更下一可选对象,当所述第二 触摸动作的触摸轨迹朝向所述子菜单选择区域的第二边界所在方向,且所述移 动轨迹在所述显示区域的跨度满足预定的规则或者阈值时,所述第二对象移动 模块 1860将发出可选对象更换的指令, 即, 用由所述第二选择模块 1840所选 中的上一级可选对象或下一级可选对象以及与所述被选中的上一级可选对象 或者被选中的下一级可选对象处于同一级的可选对象替换所述主菜单选择区 域内的可选对象。 本发明实施例提供的所述交互设备通过向用户提供一种符合人体工学,便 于操作的交互界面,使用户能够方便快捷的通过触摸操作来浏览以及选则目标 对象以简化交互过程,提高交互效率, 并降低交互过程对用户肢体造成的疲劳 度。 进一步地, 在本发明实施例提供所述交互设备 1800的基础上, 当所述第
二对象移动模块 1860用由所述第二所述触摸动作所选中的所述上一级可选对 象或下一级可选对象以及与所述被选中的上一级可选对象或者被选中的下一 级可选对象处于同一级的可选对象替换所述主菜单选择区域内的可选对象时; 所述第二显示模块 1810, 还用于在所述子菜单选择区域内显示与所述被 选中的上一级可选对象相关联的更上一级可选对象或与所述被选中的下一级 可选对象相关联的更下一级可选对象。 进一步地, 在本发明实施例提供所述交互设备 1800的基础上, 所述第一 移动轨迹检测模块 1750具体用于检测朝向与所述子菜单的第二边界相邻的所 述主菜单选择区域的第一边界所在方向的所述第一触摸动作的第一触摸轨迹; 所述第二显示模块 1720, 还用于用所述主菜单选择区域内的所述可选对 象替换所述子菜单选择区域内的所述上一级可选对象或者下一级可选对象。 进一步地, 在本发明实施例提供所述交互设备 1800的基础上, 所述第二 显示模块 1810所生成的所述第三边界与所述第二边界在所述显示区域内互不 相交且分别横跨所述夹角区与所述夹角区两侧的所述显示边界相交,所述第二 边界、 第三边界以及所述夹角区两侧的所述显示边界构成所述子菜单选择区 域; 相应, 所述交互设备 1800的第二检测模块 1830, 还用于检测发生于所述 子菜单选择区域内的第三触摸动作以获取所述第三触摸动作所发生的位置; 所述所述交互设备 1800的第二选择模块 1840, 还用于根据所获取的第三 触摸动作发生的位置确定该第三触摸动作所选中的所述子菜单选择区域内的 上一级可选对象或下一级可选对象;
所述第二轨迹检测模块 1850, 还用于检测朝向所述子菜单选择区域的第 三边界所在方向的所述第三触摸动作的第三触摸轨迹; 所述第二对象移动模块 I860, 还用于沿所述触第三摸轨迹移动由所述第 三触摸动作选中的与所述子主菜单选择区域内的上一级可选对象或下一级可 选对象,并在所述被选择的上一级可选对象或下一级可选对象越过一预定位置 时将由第二所述触摸动作所选中的上一级可选对象或下一级可选对象以及与 所述被选中的上一级可选对象或者被选中的下一级可选对象处于同一级的可 选对象替换为所述主菜单选择区域内的可选对象。 进一步地, 在本发明实施例提供所述交互设备 1800的基础上, 当所述第 二对象移动模块 1860沿所述触第三摸轨迹移动由所述第三触摸动作选中的与 主菜单选择区域内的可选对象相关联的上一级可选对象或下一级可选对象,并 将由第二所述触摸动作所选中的上一级可选对象或下一级可选对象以及与所 述被选中的上一级可选对象或者被选中的下一级可选对象处于同一级的可选 对象替换为所述主菜单选择区域内的可选对象时, 所述第二显示模块 1720, 还用于在所述被选中的上一级可选对象无相关联的更上一级可选对象或与所 述被选中的下一级可选对象无相关联的更下一级可选对象时,显示空白于所述 主菜选择区内。 请参阅图 19, 本发明实施例提供所述交互设备 1900, 所述交互设备 1900 在所述交互设备 1800的基础上, 进一步括: 控件生成模块 1910, 用于显示菜单激活控件于次显示区域, 所述次显示 区域位于与所述主菜单选择区域内对应的所述夹角区;
所述控件生成模块 1910用于在所述次显示区域内生成一菜单激活控件, 所述菜单激活控件占用的显示空间较小,用以供用户唤醒或者激活隐藏的所述 主菜单选择区域; 而在不需要时释放出所述显示区域所占用的显示空间。 第三检测模块 1920, 用于检测位于所述次显示区域内并与所述菜单激活 控件对应的第四触摸动作; 相应, 所述第一显示模块 1710, 进一步用于根据所述第四触摸动作显示 主菜单选择区域于所述显示区域内。 当所述菜单激活控件被触及时,主菜单选择区域便可显示与所述显示区域 内供用户使用或者操作。 进一步地,在本发明实施例提供的交互设备 1700、 1800及 1900的基础上, 所述第一检测模块 1730, 还用于检测发生于所述主菜单选择区域内的第五触 摸动作以获取所述第五触摸动作所发生的位置; 相应, 所述第一选择模块 1740, 进一步用于根据所获取的第五触摸动作 发生的位置确定第五该触摸动作所选中的可选对象; 所述第一轨迹检测模块 1750, 进一步用于检测沿所述主菜单选择区域的 第一边界的延伸方向移动的所述第五触摸动作的第五触摸轨迹; 所述第一对象移动模块 1760, 进一步用于沿所述第五触摸轨迹移动由所 述第五触摸动作选中的可选对象,并将与由所述第五触摸动作所选中的可选对 象同一级的可选对象以轮替的方式显示于所述主菜单选择区域内。 此外, 可以理解地, 所述控件生成模块 1910也可以同样的方式在唤醒所
述主菜单的同同时或者在唤醒所述主菜单之后唤醒所述的子菜单选择区域。 本实施例中,在所述主菜单选择区域内的可选对象可以在用户的触摸操作 下沿着所述主菜单选择区域的第一边界的延伸方向移动,从而将多个可选对象 呈现在所述主菜单选择区域内,当所述主菜单选择区域内的可选对象的数量较 多, 无法同时都显示在所述主菜单选择区域内时,便可以通过滑动当前显示在 所述主菜单选择区域 308内的可选对象以将未显示的可选对象显示出来,从而 方便用户查找目标对象。通过以上的实施方式的描述, 所属领域的技术人员可 以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可 以通过硬件, 但很多情况下前者是更佳的实施方式。 基于这样的理解, 本发明 的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式 体现出来, 该计算机软件产品存储在可读取的存储介质中, 如计算机的软盘, 硬盘或光盘等, 包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器, 或者网络设备等)执行本发明各个实施例所述的方法。
最后应说明的是: 以上实施例仅用以说明本发明的技术方案, 而非对其限 制; 尽管参照前述实施例对本发明进行了详细的说明, 本领域的普通技术人员 应当理解: 其依然可以对前述各实施例所记载的技术方案进行修改, 或者对其 中部分技术特征进行等同替换; 而这些修改或者替换, 并不使相应技术方案的 本质脱离本发明各实施例技术方案的精神和范围。
Claims
1. 一种交互设备, 包括交互界面, 所述交互界面包括由多个显示边界组 成的显示区域,其中所述多个显示边界中每两个相邻接的显示边界之间生成有 夹角区, 其特征在于: 所述交互设备还包括界面交互单元及处理单元;
所述界面交互单元,用于在所述显示区域对应至少一个所述夹角区的位置 处生成两条第一边界,所述两条第一边界在所述显示区域内互不相交且分别横 跨所述夹角区与所述夹角区两侧的所述显示边界相交,所述两条第一边界与所 述夹角区两侧的所述显示边界构成主菜单选择区域,所述主菜单选择区域内包 括可选对象;
所述处理单元,用于在所述主菜单选择区域内的所述可选对象被选中并朝 所述两条第一边界中的任意一条第一边界所在位置移动且所述被选中的可选 对象越过一预定位置时,将所述主菜单选择区域中被选中的可选对象及预定的 与所述被选中的可选对象处于同一级的可选对象替换为预定的与所述被选中 的可选对象相关联的上一级可选对象或下一级可选对象。
2. 如权利要求 1 所述交互设备, 其特征在于: 所述界面交互单元, 还用 于在所述主菜单选择区域之外且邻近所述主菜单选择区域的所述显示区域内 形成第二边界与第三边界, 所述第二边界与第三边界构成子菜单选择区域, 所 述第三边界相对所述第二边界距离所述主菜单选择区域距离更远;所述子菜单 选择区域包括所述预定的与所述被选中的可选对象相关联的上一级可选对象 或下一级可选对象;
所述的处理单元还用于,在所述子菜单选择区域内的所述上一级可选对象 或下一级可选对象被选中并朝所述子菜单选择区域的第二边界所在位置移动 且所述被选中的上一级可选对象或者下一级可选对象越过一预定位置时,用所 述被选中的上一级可选对象或者下一级可选对象替换所述主菜单选择区域内 的所述可选对象。
3. 如权利要求 2所述交互设备, 其特征在于: 当所述处理单元用所述被 选中的上一级可选对象或者下一级可选对象替换所述主菜单选择区域内的所 述可选对象时,所述界面交互单元还用于在所述子菜选择区内显示与所述被选 中的上一级可选对象相关联的更上一级可选对象或与所述被选中的下一级可 选对象相关联的更下一级可选对象。
4. 如权利要求 2所述交互设备, 其特征在于: 所述处理单元用于在所述 主菜单选择区域内的可选对象被选中并朝与所述子菜单选择区域的第二边界 相邻的所述第一边界移动且所述被选中的可选对象越过一预定位置时,用所述 主菜单选择区域内的可选对象替换所述子菜单选择区域内与所述被选中的可 选对象相关联的上一级可选对象或者下一级可选对象。
5. 如权利要求 2至 4任意一项所述交互设备, 其特征在于: 所述第三边 界与所述第二边界在所述显示区域内互不相交且分别横跨所述夹角区与所述 夹角区两侧的所述显示边界相交, 所述第二边界、第三边界以及所述夹角区两 侧的所述显示边界构成所述子菜单选择区域;
相应, 所述处理单元还用于,在所述子菜单选择区域内的所述上一级可选 对象或下一级可选对象被选中并朝所述第三边界所在位置移动且所述被选择 的上一级可选对象或下一级可选对象越过一预定位置时,将所述子菜单选择区 域内的所述上一级可选对象或所述下一级可选对象替换为所述主菜单选择区 域内的所述可选对象。
6. 如权利要求 2至 4任意一项所述交互设备, 其特征在于: 所述显示区 域为包括四条所述显示边界的矩形,所述主菜单选择区域生成在所述显示区域 的右下角或者左下角用以供使用者通过拇指对所述主菜单内的可选对象进行 操作。
7. 如权利要求 1至 6任意一项所述交互设备, 其特征在于: 所述第一边 界, 第二边界及所述第三边界中的至少一个为弧形。
8. 如权利要求 1至 7任意一项所述交互设备, 其特征在于: 所述界面交 互单元还用于在与所述主菜单选择区域对应的夹角区内生成次显示区域,所述 次显示区域包括菜单激活控件;所述处理单元还用于在所述菜单激活控件被选 中时激活所述显示区域内主菜单选择区域。
9. 如权利要求 1至 8任意一项所述交互设备, 其特征在于: 所述界面交 互单元包括触摸感应界面,所述触摸感应界面用以响应发生在所述交互界面上 的触摸动作, 所述触摸动作包括用以选中所述显示区域内的可选对象的触击, 以及移动所述被选中的可选对象的滑动;所述的处理单元用于根据所述触摸感 应界面的响应来执行对应的界面交互处理。
10如权利要求 1至 9任意一项所述交互设备, 其特征在于: 所述处理单 元还用于,在主菜单选择区域内的可选对象被选中后沿所述主菜单选择区域的 第一边界的延伸方向移动时,以轮替方式在所述主菜单选择区域内显示所述预 定的与所述被选中的可选对象处于同一级的可选对象。
11. 一种交互设备的交互方法, 其特征在于:
显示两条第一边界于显示区域内 ,其中,所述显示区域包括多个显示边界, 每两个相邻的所述显示边界之间生成有夹角区,所述两条第一边界位于所述显 示区域内与所述至少一个夹角区对应的位置处,所述两条第一边界在所述显示 区域内互不相交且分别横跨所述夹角区与所述夹角区两侧的所述显示边界相 交,所述两条第一边界与所述的夹角区两侧的所述显示边界构成主菜单选择区 域
显示可选对象于所述显示区域内,所述可选对象位于所述显示区域内的所 述主菜单选择区域内;
检测发生于所述主菜单选择区域内的第一触摸动作以获取所述第一触摸 动作所发生的位置;
根据所获取的第一触摸动作发生的位置确定第一该触摸动作所选中的可 选对象;
检测朝向所述主菜单选择区域的任意一条第一边界所在方向的所述第一 触摸动作的第一触摸轨迹;
沿所述第一触摸轨迹移动由所述第一触摸动作选中的所述可选对象且在 由所述第一触摸动作选中的所述可选对象越过一预定位置时,将由所述第一触 摸动作所选中的可选对象及预定的与所述被选中的可选对象处于同一级的可 选对象替换为预定的与所述被选中的可选对象相关联的上一级可选对象或下 一级可选对象。
12. 如权利要求 11所述交互方法, 其特征在于: 所述方法进一步包括: 显示第二边界及第三边界于所述显示区域内,所述第二边界与第三边界位 于所述主菜单选择区域之外且所述第三边界相对所述第二边界距离所述主菜 单选择区域距离更远; 所述第二边界与所述第三边界构成子菜单选择区域; 显示所述预定的与所述被选中的可选对象相关联的上一级可选对象或下 一级可选对象,所述预定的与所述被选中的可选对象相关联的上一级可选对象 或下一级可选对象位于所述子菜单选择区域内;
检测发生于所述子菜单选择区域内的第二触摸动作以获取所述第二触摸 动作所发生的位置;
根据所获取的第二触摸动作发生的位置确定该第二触摸动作所选中的所 述上一级可选对象或下一级可选对象;
检测朝向所述子菜单选择区域的第二边界所在方向的所述第二触摸动作 的第二触摸轨迹;
沿所述触第二触摸轨迹移动由所述第二触摸动作选中的所述上一级可选 对象或下一级可选对象且在由所述第二触摸动作选中的所述上一级可选对象 或下一级可选对象越过一预定位置时用由所述第二所述触摸动作所选中的所 述上一级可选对象或下一级可选对象以及与所述被选中的上一级可选对象或 者被选中的下一级可选对象处于同一级的可选对象替换所述主菜单选择区域 内的可选对象。
13. 如权利要求 12所述交互方法, 其特征在于: 在所述用由所述第二所 述触摸动作所选中的所述上一级可选对象或下一级可选对象以及与所述被选 中的上一级可选对象或者被选中的下一级可选对象处于同一级的可选对象替 换所述主菜单选择区域内的可选对象时, 所述方法还包括:
在所述子菜单选择区域内显示与所述被选中的上一级可选对象相关联的 更上一级可选对象或与所述被选中的下一级可选对象相关联的更下一级可选 对象。
14. 如权利要求 12所述交互方法, 其特征在于: 所述检测朝向所述主菜 单选择区域的任意一条第一边界所在方向的所述第一触摸动作的第一触摸轨 迹具体包括:
检测朝向与所述子菜单的第二边界相邻的所述主菜单选择区域的第一边 界所在方向的所述第一触摸动作的第一触摸轨迹;
相应 ,在所述将由所述第一触摸动作所选中的可选对象及预定的与所述被 选中的可选对象处于同一级的可选对象替换为预定的与所述被选中的可选对 象相关联的上一级可选对象或下一级可选对象时, 所述方法还包括:
用所述主菜单选择区域内的所述可选对象替换所述子菜单选择区域内的 所述上一级可选对象或者下一级可选对象。
15. 如权利要求 12至 14任意一项所述交互方法, 其特征在于: 所述第三 边界与所述第二边界在所述显示区域内互不相交且分别横跨所述夹角区与所 述夹角区两侧的所述显示边界相交, 所述第二边界、第三边界以及所述夹角区 两侧的所述显示边界构成所述子菜单选择区域;
相应, 所述方法还包括:
检测发生于所述子菜单选择区域内的第三触摸动作以获取所述第三触摸 动作所发生的位置;
根据所获取的第三触摸动作发生的位置确定该第三触摸动作所选中的所 述子菜单选择区域内的上一级可选对象或下一级可选对象;
检测朝向所述子菜单选择区域的第三边界所在方向的所述第三触摸动作 的第三触摸轨迹;
沿所述触第三摸轨迹移动由所述第三触摸动作选中的所述子菜单选择区 域内的所述上一级可选对象或下一级可选对象,并在所述被选择的上一级可选 对象或下一级可选对象越过一预定位置时将由第二所述触摸动作所选中的上 一级可选对象或下一级可选对象以及与所述被选中的上一级可选对象或者被 选中的下一级可选对象处于同一级的可选对象替换为所述主菜单选择区域内 的可选对象。
16. 如权利要求 11至 15任意一项所述交互方法, 其特征在于: 所述方法 还包括:
显示菜单激活控件于次显示区域,所述次显示区域位于与所述主菜单选择 区域对应的所述夹角区内;
检测位于所述次显示区域内并与所述菜单激活控件对应的第四触摸动作; 相应, 所述显示主菜单选择区域于显示区域内具体包括:
根据所述第四触摸动作显示主菜单选择区域于所述显示区域内。
17. 如权利要求 11至 16任意一项所述交互方法, 其特征在于: 所述方法 还包括:
检测发生于所述主菜单选择区域内的第五触摸动作以获取所述第五触摸 动作所发生的位置;
根据所获取的第五触摸动作发生的位置确定第五该触摸动作所选中的可 选对象;
检测沿所述主菜单选择区域的第一边界的延伸方向移动的所述第五触摸 动作的第五触摸轨迹;
沿所述第五触摸轨迹移动由所述第五触摸动作选中的可选对象 ,并将与由 所述第五触摸动作所选中的可选对象同一级的可选对象以轮替的方式显示于 所述主菜单选择区域内。
18. 一种交互设备, 其特征在于包括: 第一显示模块, 用以显示两条第一边界于显示区域内; 其中, 所述显示区 域包括多个显示边界,每两个相邻的所述显示边界之间生成有夹角区, 所述两 条第一边界位于所述显示区域内与所述至少一个所述夹角区对应的位置处,所 述两条第一边界在所述显示区域内互不相交且分别横跨所述夹角区与所述夹 角区两侧的所述显示边界相交,所述两条第一边界与所述的夹角区两侧的所述 显示边界构成主菜单选择区域; 第二显示模块, 用于显示可选对象于所述显示区域内, 其中, 所述可选对 象位于所述显示区域内的所述主菜单选择区域内; 第一检测模块,用于检测发生于所述主菜单选择区域内的第一触摸动作以 获取所述第一触摸动作所发生的位置; 第一选择模块,用于根据所获取的第一触摸动作发生的位置确定第一该触 摸动作所选中的可选对象; 第一触摸轨迹检测模块,用于检测朝向所述主菜单选择区域的任意一条第 一边界所在方向的所述第一触摸动作的第一触摸轨迹 , 以及 第一对象移动模块,用于沿所述第一触摸轨迹移动由所述第一触摸动作选 中的所述可选对象且在由所述第一触摸动作选中的所述可选对象越过一预定 位置时,将由所述第一触摸动作所选中的可选对象及预定的与所述被选中的可 选对象处于同一级的可选对象替换为预定的与所述被选中的可选对象相关联 的上一级可选对象或下一级可选对象。
19. 如权利要求 18所述的交互设备, 其特征在于, 还包括:
第三显示模块, 用于显示第二边界及第三边界于所述显示区域内, 所述第 二边界与第三边界位于所述主菜单选择区域之外且所述第三边界相对所述第 二边界距离所述主菜单选择区域距离更远;所述第二边界与所述第三边界构成 子菜单选择区域; 第四显示模块,用于显示所述预定的与所述被选中的可选对象相关联的上 一级可选对象或下一级可选对象,所述预定的与所述被选中的可选对象相关联 的上一级可选对象或下一位于所述子菜单选择区域内; 第二检测模块,用于检测发生于所述子菜单选择区域内的第二触摸动作以 获取所述第二触摸动作所发生的位置; 第二选择模块,用于根据所获取的第二触摸动作发生的位置确定该第二触 摸动作所选中菜单选择区域所述上一级可选对象或下一级可选对象; 第二轨迹检测模块,用于检测朝向所述子菜单选择区域的第二边界所在方 向的所述第二触摸动作的第二触摸轨迹; 以及 第二对象移动模块,用于沿所述触第二触摸轨迹移动由所述第二触摸动作 选中的所述上一级可选对象或下一级可选对象且在由所述第二触摸动作选中 的所述上一级可选对象或下一级可选对象越过一预定位置时用由所述第二所 述触摸动作所选中的所述上一级可选对象或下一级可选对象以及与所述被选 中的上一级可选对象或者被选中的下一级可选对象处于同一级的可选对象替 换所述主菜单选择区域内的可选对象。
20. 如权利要求 19所述的交互设备, 其特征在于, 当所述第二对象移动 模块用由所述第二所述触摸动作所选中的所述上一级可选对象或下一级可选 对象以及与所述被选中的上一级可选对象或者被选中的下一级可选对象处于 同一级的可选对象替换所述主菜单选择区域内的可选对象时; 所述第二显示模块,还用于在所述子菜单选择区域内显示与所述被选中的 上一级可选对象相关联的更上一级可选对象或与所述被选中的下一级可选对 象相关联的更下一级可选对象。
21. 如权利要求 20所述的交互设备, 其特征在于, 所述第一移动轨迹检测模块具体用于检测朝向与所述子菜单的第二边界 相邻的所述主菜单选择区域的第一边界所在方向的所述第一触摸动作的第一 触摸轨迹; 对应, 所述第二显示模块, 还用于用所述主菜单选择区域内的所述可选对 象替换所述子菜单选择区域内的所述上一级可选对象或者下一级可选对象。
22. 如权利要求 19至 21任意一项所述的交互设备, 其特征在于, 所述第 三边界与所述第二边界在所述显示区域内互不相交且分别横跨所述夹角区与 所述夹角区两侧的所述显示边界相交, 所述第二边界、第三边界以及所述夹角 区两侧的所述显示边界构成所述子菜单选择区域; 所述第二检测模块,还用于检测发生于所述子菜单选择区域内的第三触摸 动作以获取所述第三触摸动作所发生的位置; 所述第二选择模块,还用于根据所获取的第三触摸动作发生的位置确定该 第三触摸动作所选中的所述子菜单选择区域内的上一级可选对象或下一级可 选对象; 所述第二轨迹检测模块,还用于检测朝向所述子菜单选择区域的第三边界 所在方向的所述第三触摸动作的第三触摸轨迹; 所述第二对象移动模块,还用于沿所述触第三摸轨迹移动由所述第三触摸 动作选中的所述子菜单选择区域内的上一级可选对象或下一级可选对象,并在 所述被选择的上一级可选对象或下一级可选对象越过一预定位置时将由第二 所述触摸动作所选中的上一级可选对象或下一级可选对象以及与所述被选中 的上一级可选对象或者被选中的下一级可选对象处于同一级的可选对象替换 为所述主菜单选择区域内的可选对象。
23. 如权利要求 19至 22任意一项所述的交互设备, 其特征在于, 所述交 互设备进一步包括: 控件生成模块, 用于显示菜单激活控件于次显示区域, 所述次显示区域位 于与所述主菜单选择区域对应的所述夹角区内; 第三检测模块,用于检测位于所述次显示区域内并与所述菜单激活控件对 应的第四触摸动作; 相应, 所述第一显示模块, 进一步用于根据所述第四触摸动作显示主菜单 选择区域于所述显示区域内。
24. 如权利要求 19至 23任意一项所述的交互设备, 其特征在于, 所述第一检测模块,还用于检测发生于所述主菜单选择区域内的第五触摸 动作以获取所述第五触摸动作所发生的位置; 相应, 所述第一选择模块, 进一步用于根据所获取的第五触摸动作发生的 位置确定第五该触摸动作所选中的可选对象; 所述第一轨迹检测模块,进一步用于检测沿所述主菜单选择区域的第一边 界的延伸方向移动的所述第五触摸动作的第五触摸轨迹; 所述第一对象移动模块,进一步用于沿所述第五触摸轨迹移动由所述第五 触摸动作选中的可选对象,并将与由所述第五触摸动作所选中的可选对象同一 级的可选对象以轮替的方式显示于所述主菜单选择区域内。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20120769302 EP2615533A4 (en) | 2011-12-08 | 2012-03-21 | INTERACTION PROCEDURE AND INTERACTION DEVICE |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110406396.6 | 2011-12-08 | ||
CN2011104063966A CN102541445A (zh) | 2011-12-08 | 2011-12-08 | 交互方法及交互设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013082896A1 true WO2013082896A1 (zh) | 2013-06-13 |
Family
ID=46348435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2012/072723 WO2013082896A1 (zh) | 2011-12-08 | 2012-03-21 | 交互方法及交互设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9213467B2 (zh) |
EP (1) | EP2615533A4 (zh) |
CN (1) | CN102541445A (zh) |
WO (1) | WO2013082896A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113678097A (zh) * | 2019-04-09 | 2021-11-19 | 金孝俊 | 命令菜单输出方法 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9298236B2 (en) | 2012-03-02 | 2016-03-29 | Microsoft Technology Licensing, Llc | Multi-stage power adapter configured to provide a first power level upon initial connection of the power adapter to the host device and a second power level thereafter upon notification from the host device to the power adapter |
US9075566B2 (en) | 2012-03-02 | 2015-07-07 | Microsoft Technoogy Licensing, LLC | Flexible hinge spine |
US9870066B2 (en) | 2012-03-02 | 2018-01-16 | Microsoft Technology Licensing, Llc | Method of manufacturing an input device |
US9134807B2 (en) | 2012-03-02 | 2015-09-15 | Microsoft Technology Licensing, Llc | Pressure sensitive key normalization |
US20130300590A1 (en) | 2012-05-14 | 2013-11-14 | Paul Henry Dietz | Audio Feedback |
US10031556B2 (en) | 2012-06-08 | 2018-07-24 | Microsoft Technology Licensing, Llc | User experience adaptation |
CN102830917A (zh) * | 2012-08-02 | 2012-12-19 | 上海华勤通讯技术有限公司 | 移动终端及其触控建立方法 |
CN103632516A (zh) * | 2012-08-20 | 2014-03-12 | 牛春咏 | 无线触摸屏控制系统 |
CN103677530B (zh) * | 2012-09-17 | 2018-01-05 | 腾讯科技(深圳)有限公司 | 菜单显示方法和装置 |
CN102855066B (zh) * | 2012-09-26 | 2017-05-17 | 东莞宇龙通信科技有限公司 | 终端和终端操控方法 |
US20140143728A1 (en) * | 2012-11-16 | 2014-05-22 | Loopwirez, Inc. | Ergonomic thumb interface for mobile phone, smart phone, or tablet |
KR102085225B1 (ko) * | 2012-12-05 | 2020-03-05 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
CN106940617B (zh) * | 2012-12-17 | 2020-05-26 | 联想(北京)有限公司 | 一种显示方法及电子设备 |
CN103902136B (zh) * | 2012-12-24 | 2017-11-28 | 联想(北京)有限公司 | 一种控制电子设备的方法及电子设备 |
CN103064591B (zh) * | 2012-12-29 | 2018-06-15 | 倪旻 | 一种多级菜单导航界面实现方法 |
US9304549B2 (en) | 2013-03-28 | 2016-04-05 | Microsoft Technology Licensing, Llc | Hinge mechanism for rotatable component attachment |
JP6297787B2 (ja) * | 2013-04-25 | 2018-03-20 | 京セラ株式会社 | 携帯電子機器 |
CN103226446B (zh) | 2013-05-16 | 2016-08-03 | 上海欧拉网络技术有限公司 | 用于移动设备的用户界面的事件响应方法及移动设备 |
CN104182160B (zh) * | 2013-05-24 | 2017-09-15 | 宏碁股份有限公司 | 电子装置及控制电子装置的方法 |
US9563262B2 (en) * | 2013-09-05 | 2017-02-07 | Lenovo (Beijing) Co., Ltd. | Electronic apparatus and information processing method |
US20150082238A1 (en) * | 2013-09-18 | 2015-03-19 | Jianzhong Meng | System and method to display and interact with a curve items list |
CN103645833B (zh) | 2013-12-27 | 2017-06-27 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104750402B (zh) * | 2013-12-30 | 2019-04-23 | 三亚中兴软件有限责任公司 | 对象浏览处理方法、装置及终端 |
USD704673S1 (en) | 2014-01-25 | 2014-05-13 | Dinesh Agarwal | Curved split-screen cellphone |
CN105760092B (zh) * | 2014-12-16 | 2019-11-08 | 阿里巴巴集团控股有限公司 | 一种用于触摸屏设备的应用控制方法、装置及电子设备 |
JP6459640B2 (ja) * | 2015-03-03 | 2019-01-30 | オムロン株式会社 | 文字入力システム用のプログラムおよび情報処理装置 |
CN104932821A (zh) * | 2015-06-02 | 2015-09-23 | 青岛海信移动通信技术股份有限公司 | 一种智能终端操作界面的显示方法及智能终端 |
CN104898978A (zh) * | 2015-06-10 | 2015-09-09 | 努比亚技术有限公司 | 一种选择应用菜单的方法及装置 |
JP2017047781A (ja) * | 2015-09-01 | 2017-03-09 | 三菱自動車工業株式会社 | 車載情報処理装置 |
CN105260054A (zh) * | 2015-09-25 | 2016-01-20 | 京东方科技集团股份有限公司 | 用于实现触控反馈的方法和装置 |
KR20170038566A (ko) * | 2015-09-30 | 2017-04-07 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN105630382B (zh) * | 2015-12-23 | 2018-11-30 | 浙江慧脑信息科技有限公司 | 一种快速屏幕输入方法 |
CN106126049B (zh) * | 2016-06-22 | 2019-06-11 | 宇龙计算机通信科技(深圳)有限公司 | 菜单操作方法及系统 |
CN115236892B (zh) * | 2017-09-28 | 2024-06-11 | 荣耀终端有限公司 | 一种彩膜基板、显示屏及终端 |
USD875740S1 (en) * | 2018-03-14 | 2020-02-18 | Google Llc | Display screen with graphical user interface |
USD879114S1 (en) * | 2018-03-29 | 2020-03-24 | Google Llc | Display screen with graphical user interface |
CN109213403A (zh) * | 2018-08-02 | 2019-01-15 | 众安信息技术服务有限公司 | 功能菜单操控装置及方法 |
CN109491560B (zh) * | 2018-09-20 | 2021-08-13 | 华为技术有限公司 | 应用程序的启动方法和装置 |
CN109828817A (zh) * | 2019-01-25 | 2019-05-31 | 努比亚技术有限公司 | 一种移动终端的操作控制系统及方法 |
US11413531B2 (en) * | 2020-03-03 | 2022-08-16 | Sony Interactive Entertainment Inc. | Game console application with action card strand |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040212617A1 (en) * | 2003-01-08 | 2004-10-28 | George Fitzmaurice | User interface having a placement and layout suitable for pen-based computers |
CN101630222A (zh) * | 2009-08-19 | 2010-01-20 | 中科方德软件有限公司 | 一种用户菜单处理方法、系统和设备 |
US20100229125A1 (en) * | 2009-03-09 | 2010-09-09 | Samsung Electronics Co., Ltd. | Display apparatus for providing a user menu, and method for providing user interface (ui) applicable thereto |
US20110202838A1 (en) * | 2010-02-17 | 2011-08-18 | Samsung Electronics Co., Ltd. | Apparatus and method for providing user interface |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
GB0201074D0 (en) * | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
US7210107B2 (en) | 2003-06-27 | 2007-04-24 | Microsoft Corporation | Menus whose geometry is bounded by two radii and an arc |
US7418670B2 (en) * | 2003-10-03 | 2008-08-26 | Microsoft Corporation | Hierarchical in-place menus |
JP4366695B2 (ja) * | 2004-09-13 | 2009-11-18 | 日本ビクター株式会社 | メニュー画像表示方法及び電子情報機器 |
US20060199616A1 (en) | 2005-03-03 | 2006-09-07 | Agere Systems Inc. | Mobile communication device having automatic scrolling capability and method of operation thereof |
US7944455B1 (en) | 2005-07-06 | 2011-05-17 | Apple Inc. | Controlling a display device to display portions of an entire image in a display area |
KR100801089B1 (ko) | 2005-12-13 | 2008-02-05 | 삼성전자주식회사 | 터치 및 드래그를 이용하여 제어 가능한 모바일 장치 및 그조작 방법 |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US8930834B2 (en) * | 2006-03-20 | 2015-01-06 | Microsoft Corporation | Variable orientation user interface |
US8351989B2 (en) * | 2007-02-23 | 2013-01-08 | Lg Electronics Inc. | Method of displaying menu in a mobile communication terminal |
US20080250349A1 (en) * | 2007-04-05 | 2008-10-09 | Hewlett-Packard Development Company, L.P. | Graphical user interface |
EP2017707B1 (en) * | 2007-07-06 | 2017-04-12 | Dassault Systèmes | Widget of graphical user interface and method for navigating amongst related objects |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
KR100900295B1 (ko) | 2008-04-17 | 2009-05-29 | 엘지전자 주식회사 | 이동 디바이스와 이동 통신 시스템의 사용자 인터페이스방법 |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
KR101012300B1 (ko) | 2008-03-07 | 2011-02-08 | 삼성전자주식회사 | 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법 |
US8159469B2 (en) * | 2008-05-06 | 2012-04-17 | Hewlett-Packard Development Company, L.P. | User interface for initiating activities in an electronic device |
US9250797B2 (en) * | 2008-09-30 | 2016-02-02 | Verizon Patent And Licensing Inc. | Touch gesture interface apparatuses, systems, and methods |
KR101004463B1 (ko) * | 2008-12-09 | 2010-12-31 | 성균관대학교산학협력단 | 터치 스크린의 드래그를 이용한 메뉴 선택을 지원하는 휴대용 단말 및 그 제어 방법 |
US20100201636A1 (en) | 2009-02-11 | 2010-08-12 | Microsoft Corporation | Multi-mode digital graphics authoring |
WO2010110550A1 (en) * | 2009-03-23 | 2010-09-30 | Core Logic Inc. | Apparatus and method for providing virtual keyboard |
US9015627B2 (en) | 2009-03-30 | 2015-04-21 | Sony Corporation | User interface for digital photo frame |
US20100287468A1 (en) * | 2009-05-05 | 2010-11-11 | Emblaze Mobile Ltd | Apparatus and method for displaying menu items |
CN102118514A (zh) * | 2011-03-31 | 2011-07-06 | 深圳市五巨科技有限公司 | 移动通信终端及其菜单设置方法 |
ES2735273T3 (es) * | 2011-05-23 | 2019-12-17 | Huawei Device Co Ltd | Método de entrada, dispositivo de entrada y dispositivo terminal |
-
2011
- 2011-12-08 CN CN2011104063966A patent/CN102541445A/zh active Pending
-
2012
- 2012-03-21 EP EP20120769302 patent/EP2615533A4/en not_active Ceased
- 2012-03-21 WO PCT/CN2012/072723 patent/WO2013082896A1/zh active Application Filing
- 2012-09-27 US US13/628,764 patent/US9213467B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040212617A1 (en) * | 2003-01-08 | 2004-10-28 | George Fitzmaurice | User interface having a placement and layout suitable for pen-based computers |
US20100229125A1 (en) * | 2009-03-09 | 2010-09-09 | Samsung Electronics Co., Ltd. | Display apparatus for providing a user menu, and method for providing user interface (ui) applicable thereto |
CN101630222A (zh) * | 2009-08-19 | 2010-01-20 | 中科方德软件有限公司 | 一种用户菜单处理方法、系统和设备 |
US20110202838A1 (en) * | 2010-02-17 | 2011-08-18 | Samsung Electronics Co., Ltd. | Apparatus and method for providing user interface |
Non-Patent Citations (1)
Title |
---|
See also references of EP2615533A4 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113678097A (zh) * | 2019-04-09 | 2021-11-19 | 金孝俊 | 命令菜单输出方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2615533A1 (en) | 2013-07-17 |
US9213467B2 (en) | 2015-12-15 |
EP2615533A4 (en) | 2014-01-01 |
CN102541445A (zh) | 2012-07-04 |
US20130268897A1 (en) | 2013-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013082896A1 (zh) | 交互方法及交互设备 | |
US11150792B2 (en) | Method and device for executing object on display | |
US8774869B2 (en) | Mobile terminal and control method thereof | |
KR101847754B1 (ko) | 근접 기반 입력을 위한 장치 및 방법 | |
US10185456B2 (en) | Display device and control method thereof | |
US8627235B2 (en) | Mobile terminal and corresponding method for assigning user-drawn input gestures to functions | |
WO2019085821A1 (zh) | 处理方法、装置、设备和机器可读介质 | |
EP3022848B1 (en) | Method of providing message and user device supporting the same | |
WO2019000438A1 (zh) | 显示图形用户界面的方法及电子设备 | |
US20130300684A1 (en) | Apparatus and method for executing multi applications | |
WO2019085820A1 (zh) | 处理方法、装置、设备和机器可读介质 | |
US20140365950A1 (en) | Portable terminal and user interface method in portable terminal | |
TW201437900A (zh) | 多工的方法與裝置 | |
KR102216123B1 (ko) | 타스크 스위칭 방법 및 이를 위한 디바이스 | |
KR20140128208A (ko) | 사용자 단말 장치 및 그 제어 방법 | |
KR20130081838A (ko) | 이동 단말기 및 이동 단말기의 제어 방법 | |
KR20130046839A (ko) | 배경 컨텐츠 운용 방법 및 이를 지원하는 단말기 | |
WO2019085810A1 (zh) | 处理方法、装置、设备和机器可读介质 | |
US10235036B2 (en) | Electronic device and method for controlling electronic device thereof | |
KR20130089476A (ko) | 이동 단말기 및 이동 단말기의 제어 방법 | |
AU2018267682B2 (en) | Method and device for executing object on display | |
WO2014075226A1 (zh) | 界面的显示方法和终端设备 | |
KR20160085677A (ko) | 사용자 단말 장치 및 그의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 2012769302 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |