CN105144026A - 手环型移动设备及其控制方法和ui显示方法 - Google Patents
手环型移动设备及其控制方法和ui显示方法 Download PDFInfo
- Publication number
- CN105144026A CN105144026A CN201380072661.9A CN201380072661A CN105144026A CN 105144026 A CN105144026 A CN 105144026A CN 201380072661 A CN201380072661 A CN 201380072661A CN 105144026 A CN105144026 A CN 105144026A
- Authority
- CN
- China
- Prior art keywords
- mobile device
- screen
- user
- display
- present disclosure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G9/00—Visual time or date indication means
- G04G9/0064—Visual time or date indication means in which functions not related to time can be displayed
-
- G—PHYSICS
- G04—HOROLOGY
- G04F—TIME-INTERVAL MEASURING
- G04F10/00—Apparatus for measuring unknown time intervals by electric means
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G17/00—Structural details; Housings
- G04G17/08—Housings
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
- G04G21/025—Detectors of external physical values, e.g. temperature for measuring physiological data
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/04—Input or output devices integrated in time-pieces using radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1652—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/026—Details of the structure or mounting of specific components
- H04M1/0266—Details of the structure or mounting of specific components for a display module assembly
- H04M1/0268—Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/04—Supports for telephone transmitters or receivers
- H04M1/05—Supports for telephone transmitters or receivers specially adapted for use on head, throat or breast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/60—Substation equipment, e.g. for use by subscribers including speech amplifiers
- H04M1/6033—Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
- H04M1/6041—Portable telephones adapted for handsfree use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/08—Access security
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/30—Security of mobile devices; Security of mobile applications
- H04W12/33—Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04102—Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/04—Structural and physical details of display devices
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/045—Zooming at least part of an image, i.e. enlarging it or shrinking it
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/02—Flexible displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
- H04B2001/3861—Transceivers carried on the body, e.g. in helmets carried in a hand or on fingers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/02—Details of telephonic subscriber devices including a Bluetooth interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/60—Context-dependent security
- H04W12/68—Gesture-dependent or behaviour-dependent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- Otolaryngology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供了一种移动设备。该移动设备包括:被配置为穿戴在用户身体上的手环型主体,被安装在主体中的显示器,被配置为检测运动的运动传感器,被配置为存储根据运动状态而不同地设置的控制信息的存储器,以及控制器,当运动被所述动作传感器检测到时,其被配置为根据与所检测的运动相对应的控制信息来改变所述显示器的屏幕。因此,该移动设备是容易携带并使用的。
Description
技术领域
本公开涉及与移动设备的各种实施例相一致的装置和方法、移动设备的控制方法、以及用户接口(UI)显示方法。更具体地,本公开涉及手环(bangle)型的并根据其运动来操作的移动设备、它的控制方法、以及UI显示方法。
背景技术
随着电子技术的发展,各种种类的电子装置已被开发和分发。具体地,随着最近几年高性能部件可以被微型化,电子装置可以用小尺寸来实施,并且相应地,被装备有诸如移动电话、平板型PC、膝上型PC和MP3播放器的各种功能的移动设备越来越多地被使用。
大多数的移动设备被放入用户的包或口袋中并由用户来携带。例如,当移动设备被放入口袋中并携带时,当用户坐在椅子上或躺下时移动设备很可能从口袋掉出来。就轻型和小型移动设备而言,用户可能无法察觉到移动设备从口袋掉出来。因此,用户丢失用户移动设备的风险增加了。此外,当移动设备与钥匙或任何其他硬物一起被携带在包或口袋中时,当用户行走时移动设备可能被这些物体撞击,并且被划伤或损坏。
因此,存在越来越多对于制造容易携带形式的移动设备的方法的需求。此外,存在对于用于容易地控制这种移动设备的操作的方法的需求。
以上信息被提供作为背景信息,仅仅用于帮助理解本发明。关于上述任何内容就本公开而言是否可适用为现有技术,没有作出判定,也没有作出断言。
发明内容
技术问题
本公开的各方面要解决至少上述问题和/或缺点并提供至少下述优点。
因此,本公开的一方面是为了提供一种被穿戴在用户身体上并且容易携带和使用的手环型移动设备,及其控制方法。
解决问题的方案
根据本公开的一方面,提供了一种可穿戴手环型的移动设备。该移动设备包括:显示器;被配置为检测移动设备的运动的运动传感器;被配置为存储根据运动状态而不同地设置的控制信息的存储器;以及当运动被所述动作传感器检测到时,被配置为根据与所检测的运动相对应的控制信息来改变所述显示器的屏幕的控制器。
根据本公开的一方面,当在内容正被回放的同时所述显示器沿第一方向被移动时,所述控制器可以将屏幕改变为前一个内容回放屏幕,并且,当所述显示器沿与第一方向相反的第二方向被移动时,所述控制器可以将屏幕改变为下一个内容回放屏幕。
根据本公开的一方面,当所述显示器沿第一方向被移动时,所述控制器可以将屏幕改变为缩小的屏幕,并且,当所述显示器沿与第一方向相反的第二方向被移动时,所述控制器可以将屏幕改变为放大的屏幕。
根据本公开的一方面,所述控制器可以根据由所述运动传感器检测到的运动来进行以下各项操作中的至少一者:改变内容、放大/缩小、改变屏幕排列方向、激活显示器、去激活(inactivate)显示器、关闭、打开、解锁、验证以及选择应用。
根据本公开的一方面,当所述动作传感器的检测结果满足预定的停用(non-use)条件时,所述控制器可以使显示器去激活,并且,当所述动作传感器的检测结果满足预定的使用条件时,所述控制器可以激活显示器。
根据本公开的一方面,所述移动设备还可以包括安置在主体上的拍摄装置(photographer)。当在所述移动设备为锁定状态的同时所述运动传感器的检测结果满足预定条件时,所述控制器可以控制拍摄装置以进行拍摄,并且,当在所拍摄的图像中识别出用户时,所述控制器可以进行解锁操作。
根据本公开的一方面,所述移动设备可以包括由柔性材料制成的主体,以便将主体卷绕(windaround)在用户身体上。
根据本公开的一方面,所述显示器可以被形成在主体的一侧的整个表面上。
根据本公开的一方面,当在主体被穿戴在用户身体上的同时主体的一端被展开时,所述控制器可以在所述一端上提供的显示区域上显示键盘。
根据本公开的一方面,主体可以包括其中安装所述显示器的第一部分;第二部分;在所述第一部分上的、彼此间隔预定距离的第一突起;以及第二突起,其形成在第二部分上以与所述第一突起啮合,并且被配置为支撑所述第一部分以分阶段沿所述第二部分的外表面滑动。当第一部分沿第二部分滑动并被旋转时,控制器可以显示与滑动阶段相对应的屏幕。
根据本公开的一方面,所述显示器可以被安置在主体的整个外表面,并且移动设备还可以包括:在主体的内表面上提供的垫子;以及,空气驱动器(airdriver),被配置为在移动设备被穿戴在用户身体上时使所述垫子膨胀并使得垫子与用户身体紧密接触,并且,当输入移除移动设备的命令时,所述空气驱动器被配置为使所述垫子收缩为原始状态。
根据本公开的一方面,主体可以由柔性带构成,并且所述显示器、运动传感器和控制器可以是可安装在主体中或从主体可卸载的集成模块。
本公开的另一方面,提供了移动设备。所述移动设备包括可穿戴手环型的主体、被安置在主体的表面的至少一个区域并在主体上可旋转的显示器、被配置为检测显示器的旋转状态的运动传感器、被配置为存储根据旋转状态不同地设置的控制信息的存储器、被配置为根据与所述运动传感器所检测的旋转状态相对应的控制信息来改变所述显示器的屏幕的控制器。
根据本公开的另一方面,提供一种用于控制包括被配置为穿戴在用户身体上的手环型主体以及在该主体中安装的显示器的移动设备的方法。该方法包括:检测所述移动设备的运动,并且根据所检测的运动来改变在所述显示器上显示的屏幕。
根据本公开的一方面,改变屏幕可以包括:当在内容正被回放的同时所述显示器沿第一方向被移动时,所述将屏幕为前一个内容回放屏幕,并且,当所述显示器沿与第一方向相反的第二方向被移动时,将屏幕改变为下一个内容回放屏幕。
根据本公开的一方面,改变屏幕可以包括:当所述显示器沿第一方向被移动时,将屏幕改变为缩小的屏幕,并且,当所述显示器沿与第一方向相反的第二方向被移动时,将屏幕改变为放大的屏幕。
根据本公开的一方面,运动可以包括以下各项中的至少一者:所述显示器围绕主体的外圆周旋转的旋转运动、以及移动设备的移动运动。
根据本公开的一方面,所述方法还可以包括:根据所检测的运动来进行以下操作中的至少一者:改变内容、放大/缩小、改变屏幕排列方向、激活显示器、去激活显示器、关闭、打开、解锁、验证以及选择应用。
根据本公开的一方面,该方法还可以包括:拍摄、使用拍摄的结果以及移动设备的运动中的至少一者来确定用户位置、以及进行与所确定的用户位置相对应的控制操作。
根据本公开的一方面,该方法还可以包括:当所述移动设备的运动状态满足预定的停用条件时,使所述显示器去激活,以及,当所述移动设备的运动状态满足预定的使用条件时,激活所述显示器。
根据本公开的一方面,所述主体可以是由柔性材料制成的,以便使主体卷绕用户身体,并且所述显示器可以被形成在主体的一侧的整个表面上。
根据本公开的一方面,该方法还可以包括:当在主体被穿戴在用户身体上的同时主体的一端被展开时,在所述一端上提供的显示区域上显示键盘。
根据本公开的一方面,所述显示器可以按照以下方式来连接到主体,所述显示器可以分阶段沿主体的外圆周滑动。
根据本公开的一方面,改变屏幕可以包括:将屏幕改变为与显示器的滑动阶段相对应的屏幕。
根据本公开的一方面,该方法还可以包括:当输入穿戴所述移动设备的命令时,使得在主体的内表面上提供的垫子膨胀,并使得该垫子与用户身体紧密接触,并且,当输入移除所述移动设备的命令时,使所述垫子收缩为原始状态。
根据本公开的一方面,提供了一种可穿戴手环型的移动设备。所述移动设备包括:存储器,被配置为存储预安装的应用;显示器,被配置为显示其中布置了与在所述存储器中存储的每个应用相对应的应用项的列表UI;以及,控制器,被配置为控制所述显示器以,在所述列表UI中的相应应用项的显示位置上显示与所述应用项中的至少一个相对应的应用的执行屏幕,并且根据用户操纵来改变所述列表UI的显示状态。
根据本公开的另一方面,提供一种用于控制包括被配置为穿戴在用户身体上的手环型主体以及在该主体中安装的显示器的移动设备的方法。该方法包括:检测所述移动设备的运动,并根据所检测的运动来控制所述移动设备的操作。
根据本公开的另一方面,提供一种用于显示包括可穿戴手环型主体以及在该主体上安装的显示器的移动设备的UI的方法。该方法包括:显示其中布置了与预安装应用相对应的应用项的列表UI;执行与应用项中的至少一个相对应的应用;在所述列表UI中的相应应用项的显示位置上显示所执行应用的执行屏幕,以及根据用户操纵来改变所述列表UI的显示状态。
根据本公开的一方面,提供了一种可穿戴手环型的移动设备。所述移动设备包括:存储器;无缝地形成于所述移动设备的外表面并被配置为在整个显示区域上显示在所述存储器中存储的应用的执行屏幕的显示器;被配置为检测用户交互的传感器;以及控制器,被配置为根据用户交互来改变在所述执行屏幕中的、整个显示区域的可见区域上显示的屏幕的一部分。
根据本公开的一方面,提供了一种可穿戴手环型的移动设备。所述移动设备包括:被配置为存储预安装应用的存储器;被配置为检测用户交互的传感器;显示器;控制器,其被配置为,在检测到第一用户交互时在所述显示器的屏幕的第一边缘上显示第一线型UI(lineUI),并且在检测到第二用户交互时在所述显示器的屏幕的第二边缘上显示第二线型UI。
根据本公开的一方面,提供了一种用于显示可穿戴手环型的移动设备的UI的方法。该方法包括:检测用户交互,并且在检测到第一用户交互时,在所述显示器的屏幕的第一边缘上显示第一线型UI,并且在检测到第二用户交互时,在所述显示器的屏幕的第二边缘上显示第二线型UI。
发明的有益效果
根据如上所述的各种实施例,用户能够容易地在用户身体上穿戴移动设备并容易地携带移动设备。
对于本领域的技术人员来说,从以下结合附图公开本公开的各种实施例的详细描述中,本公开的其它方面、优点和显著特性将变得明显。
附图说明
通过以下结合附图的描述,本公开的某些实施例的上述和其他方面、特征和优点将会更加清楚,附图中:
图1是示出根据本公开的实施例的移动设备的配置的视图;
图2A和图2B是示出根据本公开的实施例的可旋转的移动设备的配置的视图;
图3是示出根据本公开的实施例的移动设备(诸如例如图2A和图2B中的移动设备)的旋转器的详细配置的视图;
图4A、4B和图4C是示出根据本公开的实施例的与移动设备的旋转相对应的操作的例子的视图;
图5是示出根据本公开的实施例的移动设备的配置的视图;
图6、7和8是示出根据本公开的实施例的与移动设备(诸如例如图5中的移动设备)的运动方向相对应的操作的例子的视图;
图9A、图9B和图9C是示出根据本公开的实施例的与移动设备(诸如例如图5中的移动设备)的运动方向相对应的操作的视图;
图10是示出根据本公开的实施例的检测移动设备的运动的方法的视图;
图11A、图11B、图11C、图12A、图12B、图12C、图13A、图13B和13C是示出根据本公开的各种实施例的移动设备的各种控制操作的视图;
图14是示出根据本公开的实施例的根据移动设备的运动来改变屏幕排列方向的操作的视图;
图15A、15B和图15C是示出根据本公开的实施例的根据移动设备的运动来激活移动设备的方法的视图;
图16是示出根据本公开的实施例的还包括识别用户的相机的移动设备的配置的视图;
图17A和图17B是示出根据本公开的实施例的用于识别用户并执行解锁操作的方法的视图;
图18A和图18B是示出根据本公开的实施例的执行解锁操作的密码屏幕的例子的视图;
图19是示出根据本公开的实施例的根据移动设备的倾斜(tilt)角的改变来进行解锁操作的方法的视图;
图20是示出根据本公开的实施例的移动设备的旋转方向和运动方向的例子的视图;
图21A和图21B是示出根据本公开的实施例的被实施为柔性设备的移动设备的视图;
图22是示出根据本公开的实施例的被实施为柔性设备的移动设备的操作的例子的视图;
图23A和图23B是示出根据本公开的实施例的用于检测柔性设备的弯曲状态的配置的例子的视图;
图24是示出根据本公开的实施例的移动设备(诸如例如图21A和图21B中的移动设备)的横截面配置的例子的视图;
图25是示出根据本公开的实施例的可安装的/可拆卸的移动设备的配置的视图;
图26是示出根据本公开的实施例的部分被打开的手环型移动设备的配置的视图;
图27是示出根据本公开的实施例的部分被打开和被闭合的移动设备的配置的视图;
图28是示出根据本公开的实施例的以移动设备能够与用户身体紧密接触的形式来制造的移动设备的配置的视图;
图29是示出根据本公开的实施例的其中在侧表面上提供按钮的移动设备的配置的视图;
图30是示出根据本公开的实施例的移动设备的控制方法的流程图;
图31是示出根据本公开的实施例的根据移动设备的运动和用户眼睛来进行解锁操作的方法的流程图;
图32是示出根据本公开的实施例的移动设备的总体配置的视图;
图33是示出根据本公开的实施例的移动设备的配置的框图;
图34A、34B和图34C是示出根据本公开的实施例的移动设备的列表用户接口(UI)的配置的例子的视图;
图35A、35B和图35C是示出根据本公开的实施例的提供多个执行屏幕的移动设备的屏幕的视图;
图36A和图36B是示出根据本公开的实施例的移动设备的屏幕配置的视图;
图37A和图37B是示出根据本公开的实施例的在手环型移动设备上显示的列表UI的视图;
图38A、图38B和图38C是示出根据本公开的实施例的在其上列表UI与指示符一起被显示的屏幕的视图;
图39A和图39B是示出根据本公开的实施例的用于改变应用项的显示位置的方法的视图;
图40A、40B、40C、40D和图40E是示出根据本公开的实施例的移动设备的配置的视图;
图41A和图41B是示出根据本公开的实施例的以水滴形式来生成的列表UI的视图;
图42A、图42B、图42C,和图42D是示出根据本公开的实施例的用于改变列表UI的方法(诸如用于改变图41A和图41B中所示的列表UI的方法)的视图;
图43A、图43B、图43C,和图43D是示出根据本公开的实施例的被放大并显示的水滴对象的视图;
图44A、图44B、图44C和44D示出根据本公开的实施例的列表UI形状的例子;
图45A、图45B和图45C是示出根据本公开的实施例的根据可见区域的改变来改变列表UI的过程的视图;
图46A、图46B和图46C是示出根据本公开的实施例的根据列表UI显示方法的屏幕配置的视图;
图47A,图47B,和图47C是示出根据本公开的实施例的显示指示符的用户手势(gesture)的例子的视图;
图48A和图48B是示出根据本公开的实施例的向其添加指示符的列表UI的配置的视图;
图49A、图49B、图49C、图50A、图50B和图50C是示出根据本公开的实施例的用于确定可见区域的各种方法的视图;
图51是示出根据本公开的实施例的用于显示移动设备的UI的方法的流程图;
图52、图53、图54、图55、图56A、图56B和图56C是示出根据本公开的实施例的使用无缝形式的显示器的UI显示方法的视图;
图57A和图57B是示出根据本公开的实施例的使用跑步管理应用的方法的视图;
图58A、图58B、图58C、图58D、图58E、图58F和图58G是示出根据本公开的实施例的使用跑步管理应用的整个执行屏幕的方法的视图;
图59A、图59B和图59C示出根据本公开的实施例的、当在移动设备正执行跑步管理应用的同时用户放低(lower)移动设备时屏幕的变化;
图60A、图60B和图60C是示出根据本公开的实施例的显示关于其他人的行为的信息的视图;
图61A、图61B、图61C、图61D和图61E是示出根据本公开的实施例的显示电子设备的屏幕的方法的视图;
图62是示出根据本公开的实施例的跑步管理应用的执行屏幕的配置例子的视图;
图63是示出根据本公开的实施例的健身应用的执行屏幕的的视图;
图64A、图64B和图64C是示出根据本公开的实施例的根据用户交互来改变执行屏幕(诸如例如图63中的执行屏幕)的方法的视图;
图65A、图65B、图65C和图65D是示出根据本公开的实施例的其中显示包括健康应用的各种应用信息的列表UI的例子的视图;
图66A和图66B是示出根据本公开的实施例的在用户正在锻炼的同时显示的屏幕的例子的视图;
图67是示出根据本公开的实施例的音乐应用的执行屏幕的例子的视图;
图68A、图68B、图68C、图68D、图68E、图68F、图68G和图68H是示出根据本公开的实施例的用于操纵音乐应用的执行屏幕的方法的视图;
图69A、图69B、图69C和图69D是示出根据本公开的实施例的执行屏幕的改变示例的视图;
图70A、图70B、图70C和图70D是示出根据本公开的实施例的移动设备的屏幕操纵方法的例子的视图;
图71A、图71B,和图71C是示出根据本公开的实施例的显示UI的方法的视图;
图72A、图72B和图72C是示出根据本公开的实施例的真实UI屏幕的例子的视图;
图73A、图73B、图73C和图73D是示出根据本公开的实施例的用于显示使用线型UI(lineUI)的应用执行屏幕的方法的视图;
图74A、图74B、图74C、图74D和图74E是示出根据本公开的实施例的显示第二线型UI的过程的视图;
图75A、图75B、图75C和图75D是示出根据本公开的各种实施例的移动设备的屏幕配置的视图;以及
图76是示出根据本公开的实施例的用于显示提供线型UI的移动设备的UI的方法的流程图。
贯穿各图,相同的参考标号被用于表示相同的元素。
具体实施方式
提供以下参照附图的描述来帮助全面理解权利要求及其等效物所限定的本发明的各种实施例。以上描述包括各种具体细节来帮助理解,但这些具体细节应被看作仅仅是示例性的。因此,本领域普通技术人员将会认识到,在不脱离本公开的范围和精神的情况下,可以对本文描述的各种实施例进行各种改变和修改。另外,为了清楚和简洁,可能省略对公知功能和结构的描述。
在以下描述和权利要求中使用的术语和字词不受限于字面含义,而只是被发明人用来使得能够对于本公开有清楚且一致的理解。从而,本领域技术人员应当清楚,提供以下对本公开的各种实施例的描述只是为了说明,而不是为了限制如所附权利要求及其等同物所限定的本公开。
要理解,单数形式“一”、“一个”和“所述”包括复数所指物,除非上下文明确地另有规定。从而,例如,对“一组件表面”的提及包括对一个或多个这样的表面的提及。
在下面的描述中,即使元件在不同附图中描述,相同的附图参考编号也用于相同的元件。在说明书中定义的事项,例如详细的构造或元件,是为了帮助对各种实施例的全面理解而提供的。从而,清楚的是,各种实施例能够在没有具体定义的事项的情况下进行实践。此外,不对相关技术中公知的功能或元件详细描述,因为带有不必要的细节的这种描述会混淆各种实施例。
图1是示出根据本公开的实施例的移动设备的配置的视图。
参照图1,移动设备1000包括主体100、显示器110、控制器120、存储器130和运动传感器140。
主体100可以被实施为可穿戴手环型。手环型是指用户能够穿戴在用户身体的部分(诸如手腕、脚踝、腹部和头部)上的类型。以下将说明主体100的详细配置。
根据本公开的各种实施例,显示器110、控制器120、存储器130和运动传感器140被安装在主体100中。
运动传感器140被配置为检测运动。根据本公开的实施例,运动传感器140可以检测移动设备100的运动,或者显示器110的运动和旋转。以下将详细说明运动的类型或其检测方法。
存储器130存储根据运动状态而不同地设置的控制信息。控制信息可以包括各种信息,诸如应用、控制命令、设置数据、屏幕配置数据和转变平台(transitionplatform)。此外,存储器130可以存储各种数据,诸如用于操作移动设备、固件和应用的操作系统(OS)。存储器130可以包括非易失性存储器,诸如快闪存储器。
控制器120根据运动传感器140的检测结果来控制移动设备的操作。具体而言,当运动传感器140检测到运动时,控制器120从存储器130读出与所检测的运动相对应的控制信息。控制器130可以根据读出的控制信息来控制显示器110以显示各种屏幕。
如上所述,移动设备可以以各种形状来实施。因此,控制器120可以根据移动设备的形状而执行不同的操作。此外,根据本公开的实施例,移动设备的主体自身可以被移动,或者移动设备的主体可以是固定的并且只有显示器可以被移动(例如,移动设备的显示器可以相对于移动设备的主体被移动)。当移动设备的主体自身被移动时,控制器120可以检测主体的运动并执行相应的操作。根据本公开的实施例,其中只有显示器被移动,控制器120根据显示器的运动状态来执行相应的操作。
在下文中,将说明根据各种实施例的移动设备的形状及其操作。
图2A和图2B是示出根据本公开的实施例的可旋转的移动设备的配置的视图。例如,图2A和图2B为示出根据本公开的实施例的、其中移动设备的主体是固定的并且显示器被连接到该主体从而可以沿该主体滑动的移动设备的配置的视图。
参照图2A和图2B,主体100被划分为第一部分100-1和第二部分100-2。第一部分100-1被安置在移动设备100的外部方向上,并且第二部分100-2被安置在内部方向上。第一部分100-1是可以沿第二部分100-2的外圆周滑动的。根据本公开的各种实施例,第一部分100-1和第二部分100-2的连接表面被涂覆有具有较小摩擦力的材料,从而第一部分100-1可以在第二部分100-2上(或以其他方式相对于第二部分100-2)滑动。根据本公开的各种实施例,第一部分100-1和第二部分100-2之间的空间可以可填充有例如液体或气体的润滑材料。
第一突起1、2、3、…以预定的间隔被形成在面向第二部分100-2的、第一部分100-1的内圆周上。与第一突起1、2、3、…相对应的第二突起a、b、c、…被形成于第二部分100-2上。第二突起a、b、c、…被布置成与第一突起1、2、3、…啮合。虽然第一突起1、2、3、…和第二突起a、b、c、…分别地被布置在第一部分整个内圆周以及第二部分的整个外圆周,但第一突起1、2、3、…和第二突起a、b、c、…可以形成于第一部分的内圆周以及第二部分的外圆周的部分上。
相应地,第一部分100-1被支撑从而可以分阶段地沿第二部分100-2的外圆周滑动。例如,用户可以通过向第一部分100-1施加外力以沿第一方向或第二方向旋转第一部分100-1。具体而言,如图2A中所示,当第一突起中的一个第一突起1被放置在第二突起中的突起a和b之间时,可以沿第一方向向第一部分100-1施加力。在此情况下,第一突起1与第二突起a碰撞。因此,当大于预定值的力被施加时,第一突起1越过第二突起a。相应地,第一突起2被放置在第二突起a和b之间并且第一部分100-1在第一阶段沿第一方向滑动,如图2B中所示。
虽然在图2A和图2B中第一突起和第二突起被形成于第一部分100-1和第二部分100-2之间的连接器中,突起中的一个可以用凹陷(depression)来替代,或者可以形成任何其他图案。
当第一部分100-1沿第二部分100-2滑动并旋转时,控制器120可以执行与滑动阶段相对应的操作。
例如,当在显示第一应用的执行屏幕的同时沿第一方向执行所述第一阶段滑动时,控制器120可以执行第二应用并显示其执行屏幕。另一方面,当沿第二方向进行第一阶段滑动时,控制器120可以执行第三应用并显示其执行屏幕。
应用可以根据各种标准,诸如按照安装的次序、按照用户所定义的次序、按照应用名称的次序和/或类似的标准,被执行。例如,当标准是安装的次序时,并且当进行了沿第一方向的旋转时,在当前执行的应用之前被安装的应用被执行,并且当进行了沿第二方向的旋转时,在当前应用之后被安装的应用被执行。当标准为名称的次序时,应用可以按照应用的字首音(initialsound)的字母表次序来排列。
此外,当在内容正被回放的同时第一部分滑动时,控制器120可以根据滑动方向来回放上一内容或下一内容。当一次进行了通过若干阶段的滑动时,控制器120可以同时改变多个内容。
图3是示出根据本公开的实施例的移动设备(诸如例如图2A和图2B中的移动设备)的旋转器的详细配置的视图。例如,图3为示出根据本公开的实施例的连接器210的详细配置的视图。
参照图3,第一突起1、2、…和第二突起的a、b、…被形成为梯形形状,使得它们的侧表面是倾斜的。诸如弹簧的弹性构件可以被提供在第一突起1、2、…和第二突起的a、b、…中的至少一个的下部。
图3中,弹性构件211被提供在第二突起a和b的下部空间中。在此情况下,当第一突起移向第二突起并且与第二突起碰撞时,弹性构件211收缩并且第二突起向下移动。相应地,第一突起越过第二突起。
运动传感器140对第一突起和第二突起之间的碰撞数目进行计数,计算滑动阶段、并且向控制器120通知第一突起和第二突起之间的碰撞数目,或者通知滑动阶段。例如,弹性构件211可以通过使用应变计来实施。应变计可以由根据所施加的力的量级而极大地改变电阻值的金属或半导体制成。例如,当施加压缩力时,电阻值被减小。当在第二突起中提供的弹性构件211的电阻值被减小时,运动传感器140可以检测到进行了第一阶段滑动。
根据本公开的各种实施例,显示器110可以被安置在第一部分100-1的整个外圆周上。根据本公开的各种实施例,显示器110可以被安置在第一部分100-1的外圆周的一部分上。此外,多个显示器可以被并排地布置在移动设备的主体上。在此情况下,当进行旋转时,在显示器上显示的屏幕可以根据旋转状态从一个变为另一个。
图4A、4B和图4C是示出根据本公开的实施例的与移动设备的旋转相对应的操作的例子的视图。例如,图4A、4B和图4C示出根据本公开的实施例的被安置在整个外圆周的显示器。
参照图4A至4C,显示器110被安置为包围主体100的外圆周。因此,各种屏幕沿手环型移动设备的整个外圆周被显示,如图4A、图4B和图4C中所示的。
主体100可以是可旋转的,如图2A、图2B和图3中所示。在此情况下,用户可以手动地沿第一方向或第二方向旋转显示器110。屏幕可以根据旋转方向被改变为上一屏幕或下一屏幕,如图4B和4C中所示。
虽然在图2A到图4C中所示的本公开的实施例中屏幕通过旋转显示器而被改变,但该操作可以通过旋转移动设备的主体来控制。在下文中,将说明其中根据移动设备的运动来控制操作的本公开的实施例。
图5是示出根据本公开的实施例的移动设备的配置的视图。
参照图5,显示器110被安置在主体100的外圆周的部分上。然而,显示器110可以形成在整个外圆周上,如图4中所示。
如图5中所示的,移动设备1000可以被实现为如下形式,即,用户能够环绕用户的手腕穿戴移动设备1000。在环绕用户的手腕穿戴移动设备时,用户可以作出各种手势,诸如抬起用户的手臂或者挥动(flicking)或旋转用户手腕。
图6、图7和图8是示出根据本公开的实施例的与移动设备(诸如例如图5中的移动设备)的运动方向相对应的操作的例子的视图。
例如,图6和图7为示出根据本公开的实施例的根据用户手势来控制的移动设备的操作的视图。
参照图6,在环绕用户的手腕穿戴移动设备时,用户可以作出沿第一方向挥动(flick)的手势。挥动手势是指:沿一个方向快速移动移动设备、握住移动设备、然后将移动设备返回它的原始状态。
当识别出这种手势时,控制器120改变在显示器110上显示的屏幕。例如,当在显示屏幕2的同时检测到沿第一方向的运动时,作为上一屏幕的屏幕1被显示。
反之,当如图7中所示用户作出沿第二方向的挥动手势时,作为下一屏幕的屏幕3被显示。
控制器120可以根据挥动操作的程度来跳过多个阶段,并且当用户保持挥动操作而没有返回原始状态时,控制器120可以继续改变屏幕。
图8示出根据本公开的实施例的、其中在穿戴移动设备的同时用户作出旋转用户的手腕的手势的情况。
参照图8,当屏幕1在显示器110上显示时,用户可以通过扭动用户手腕来旋转移动设备。在此状态下,当在经过预定时间(‘a’秒)之后用户使移动设备返回其原始状态时,屏幕在这段时间中被改变并且屏幕n被显示。虽然没有在附图中示出,但通过沿与图8中所示的方向相反的方向旋转移动设备,可以显示不同的屏幕。
此外,除了屏幕改变操作之外,诸如编辑操作的其他操作可以根据移动设备的运动来进行。
图9A、图9B和图9C是示出根据本公开的实施例的与移动设备(诸如例如图5中的移动设备)的运动方向相对应的操作的视图。
例如,图9A、图9B和图9C是示出根据本公开的实施例的移动设备的编辑操作的视图。
参照图9A、图9B和图9C,移动设备的显示器110显示包括对象111,诸如图像、文本、照片和/或类似物,的屏幕(APP2)。
在此状态下,当用户沿第一方向或第二方向作出挥动用户的手腕的手势时,屏幕根据移动方向而改变。例如,如图9B中所示的,当作出沿第一方向的手势时,屏幕被改变为作为当前屏幕APP2的上一屏幕的屏幕APP1,并且对象111被移至屏幕APP1。当移动设备返回它的原始位置时,包括对象111的屏幕APP1被显示。
相反,如图9C中所示的,当作出沿第二方向的手势时,屏幕被改变为作为当前屏幕APP2的下一屏幕的屏幕APP3。相应地,对象111被显示在屏幕APP3上。
根据本公开的各种实施例,对象111可以包括各种对象,诸如照片、图像、文本和/或类似物。为了移动对象的显示,指定该对象的操作可以首先被执行。例如,用户可以通过触摸对象111来指定对象111然后沿第一方向或第二方向挥动用户的手腕,来改变对象显示屏幕。触摸可以包括各种种类的触摸操作,诸如简单触摸、长触摸、双触摸和/或类似物。当用户触摸对象111时,控制器120固定所触摸的对象111并且将背景屏幕改变为上一屏幕或下一屏幕。
根据本公开的各种实施例,当用户使用拍摄程序在移动设备中拍摄图像时或者当用户通过记事本(notepad)、文档创建程序或绘图(paint)来生成文本或图像时,所拍摄的图像或由相应任务生成的文本或图像可以直接地在特定应用中被利用。例如,通过在显示诸如所拍摄的图像或文本或图像的对象的同时作出沿第一方向或第二方向的手势,所生成的对象将被应用到的应用可以被选择。例如,当作出沿第一方向的手势时,用于管理所存储的静止图像或运动图像内容的程序可以被执行并且相应的对象可以被存储。此外,当作出沿第二方向的手势时,电子邮件程序可以被执行并且相应对象要被附加到的电子邮件可以被生成。
根据本公开的各种实施例,为了检测以上所述的用户手势,运动传感器140还可以包括加速度传感器、地磁传感器、陀螺仪传感器和/或类似物。
图10是示出根据本公开的实施例的检测移动设备的运动的方法的例子的视图。
参照图10,运动传感器140被安装在主体100中并检测移动设备的运动。
根据本公开的各种实施例,当在移动设备中提供运动传感器140时,彼此正交的X、Y和Z轴根据移动设备的放置方向被确定。俯仰角(pitchangle)是指在移动设备绕X轴被旋转时所测量的旋转角度,并且横滚角(rollangle)在移动设备绕Y轴被旋转时所测量的旋转角度。横摆角(yawangle)是指在移动设备绕Z轴被旋转时所测量的旋转角度。俯仰角和倾斜角可以由加速度传感器来测量,并且横摆角可以由地磁传感器或陀螺仪传感器来测量。
根据本公开的各种实施例,加速度传感器和地磁传感器可以包括2轴磁通门或3轴磁通门。然而,为了制造薄型移动设备,加速度传感器和地磁传感器可以由2轴磁通门来制成。
控制器120可以基于加速度传感器和地磁传感器的输出值来计算俯仰角、横滚角和横摆角,并且可以根据计算得到的值来确定用户手势。
根据本公开的各种实施例,控制器120可以归一化X轴和Y轴的加速度传感器的输出值,以将它们映射到预定范围的输出值上。例如,归一化过程可以使用等式1来进行:
…等式1
其中Xt为X轴加速度传感器的输出值,Yt为Y轴加速度传感器的输出值,Xtnorm为X轴加速度传感器的归一化的输出值,并且Ytnorm为Y轴加速度传感器的归一化的输出值。
当进行归一化时,控制器120可以使用等式2来计算俯仰角(θ)和横滚角(φ):
θ=sin-1(Xtnnorm)
…等式2
其中Xtnorm为X轴加速度传感器的归一化的输出值,Ytnorm为Y轴加速度传感器的归一化的输出值,θ为俯仰角,并且φ为横滚角。
相比之下,根据本公开的各种实施例,地磁传感器可以以类似于加速度传感器的配置的配置来实施。首先,控制器120可以使用等式3来归一化地磁传感器中的X轴和Y轴磁通门的输出值:
…等式3
其中Xf和Yf分别为X轴和Y轴地磁传感器的实际输出值,Xfnorm和Yfnorm为归一化的X轴和Y轴的值,Xfmax和Xfmin为Xf的最大值和最小值,并且Yfmax和Yfmin为Yf的最大值和最小值。虽然等式3中没有示出,但归一化的值中的每个还可以与预定的常数相乘。
控制器120可以使用归一化的值来计算三维空间中运动传感器140所放置的方向,例如方位角(azimuth)。方位角是由三个轴来表示的三维空间值,因而需要与X轴和Y轴所形成的平面垂直的Z轴的输出值来计算方位角。然而,因为Z轴的输出值不能在2轴磁通门中直接地计算出,所以Z轴的输出值应被虚拟地计算。控制器120可以通过使用等式4来分配X轴和Y轴的归一化的输出值、俯仰角、横滚角以及横摆角,以计算Z轴的虚拟地归一化的输出值。
…等式4
其中Zf为Z轴的虚拟电压值,Zfnorm为Z轴的电压值的归一化的值,λ为横摆角,θ为俯仰角,并且φ为横滚角。
当用这种方式计算出虚拟的Z轴电压值的归一化的值时,方位角最终使用等式5来计算:
…等式5
其中α为方位角,Xfnorm、Yfnorm和Zfnorm分别为X轴、Y轴和Z轴磁通门的归一化的输出值,θ为俯仰角,φ为横滚角,并且λ为横摆角。
控制器120可以通过将使用地磁传感器计算的方位角与之前计算的方位角比较来计算横摆角。例如,当之前的方位角为α并且当前方位角为α+30时,控制器120可以确定移动设备在顺时针方向被旋转了30度。此外,控制器120可以根据由加速度传感器计算出的俯仰角或横滚角的变化,来确定移动设备被放置在哪个方向以及移动设备倾斜了多少。
当用户环绕用户手腕穿戴移动设备、并抬起用户手臂并看着移动设备时,由X轴和Y轴所形成的平面被保持与地球的表面平行,如图10中所示的。在此状态下,当用户作出挥动的手势时,在X轴和Y轴方向上保持平衡并且绕Z轴进行旋转。因此,横摆角被改变。挥动手势与简单的移动手势的不同之处在于,挥动手势是加速、突然停止、然后返回到它的原始位置。控制器120可以通过计算从运动传感器140检测到运动时至运动被停止时的时间,来确定手势是否加速。如上所述,控制器120可以基于横摆角的变化以及横摆角变化的时间来确定是否作出挥动手势。
此外,当用户作出旋转用户手腕的手势时,进行了绕X轴的旋转。因此,控制器120可以基于俯仰角的改变以及改变俯仰角的时间来确定用户是否作出旋转用户手腕的手势。
此外,当用户沿手掌向下的方向放低用户手臂或者当用户抬高用户手臂以查看显示器110时,进行了绕Y轴的旋转。因此,控制器120可以基于横滚角的改变以及改变横滚角的时间来确定用户是否抬高或放低用户手臂。
根据本公开的实施例,运动传感器可以以各种形式来实施。例如,当移动设备如图2A、图2B和图3所示的来配置时,运动传感器可以根据第一部分和第二部分之间的相对旋转来检测旋转方向和旋转的程度。在这个配置中,运动传感器可以包括地磁传感器、陀螺仪传感器、加速度传感器和/或类似物。
根据本公开的各种实施例,运动传感器可以包括地磁传感器、陀螺仪传感器和加速度传感器,如图10中所述的。在此情况下,即使当主体100被形成为集成的配置而不是如图2A、图2B和图3中所示的两部分的配置时,诸如旋转或移动的各种运动也可以被检测。
如上所述,移动设备是在各种方向上可旋转的和可移动的,并且控制器120可以检测旋转或移动并且可以根据示例性实施例来进行各种操作。
图11A、图11B、图11C、图12A、图12B、图12C、图13A、图13B和图13C是示出根据本公开的各种实施例的移动设备的各种控制操作的视图。
例如,图11A、图11B、图11C、图12A、图12B、图12C、图13A、图13B和图13C是示出根据本公开的实施例的、根据移动设备的运动进行的操作的例子。
参照图11A、图11B、图11C,示出了其中在内容正被回放的同时作出运动的情况。当在内容正被回放的同时移动移动设备时,屏幕根据运动的方向而改变。例如,当在如图11B中所示单个内容回放屏幕(内容2)正被显示的同时检测到沿第一方向的运动时,控制器120回放在内容排列次序上被放置在内容2之前的内容1。因此,如图11A中所示,内容回放屏幕被改变为上一内容回放屏幕(内容1)。
相反,当移动设备沿与第一方向相反的第二方向被移动时,下一内容(内容3)被回放并且内容回放屏幕被改变为下一内容回放屏幕,如图11C中所示。
根据本公开的各种实施例,内容可以是在存储器130中存储的内容,或者可以是从通过网络连接的服务器装置提供的内容。
根据本公开的各种实施例,取代内容,内容回放操作可以被改变。例如,当沿第一方向移动移动设备时,可以进行倒回,并且当沿第二方向移动移动设备时,可以进行快进。
根据本公开的各种实施例,内容可以包括各种内容,诸如移动图像内容、音乐内容、照片内容、电子书内容和/或类似物。
参照图12A、图12B和图12C,示出了在照片内容正被显示的同时进行的控制操作。如图12A至图12C中所示的,屏幕根据移动设备的运动方向而被改变为上一照片屏幕或下一照片屏幕。
参照图13A、图13B、图13C,示出了进行放大(zoom-in)操作和缩小(zoom-out)操作的情况。如图13B中所示的,当在诸如照片或地图的静止图像正被显示的同时沿第一方向移动了移动设备时,进行缩小。因此,屏幕被改变为缩小的屏幕,如图13A中所示的。相反,如图13C中所示的,当沿第二方向移动移动设备时,进行放大并且屏幕被改变为放大的屏幕。
根据本公开的各种实施例,控制器120可以根据移动设备的运动来改变屏幕排列方向。
图14是示出根据本公开的实施例的根据移动设备的运动来改变屏幕排列方向的操作的视图。
参照图14,在其中在环绕用户的右手腕穿戴移动设备1000的同时用户抬起用户右手并看着移动设备1000的显示器110的位置,看出显示屏幕的宽度比高度大。因此,屏幕被放置于水平方向,如图14中所示。在此状态下,当用户展开用户右臂时,旋转是相对于图10中的X、Y和Z轴当中的Z轴进行的。例如,当用户展开用户右臂时,横摆角被改变。当横摆角被改变为大于预定阈值时,控制器120改变屏幕方向。相应地,屏幕以垂直方向被放置。
根据如上所述的本公开的各种实施例,控制器120可以根据用户的位置来将屏幕改变为容易看到的屏幕,并且可显示该屏幕。
根据本公开的各种实施例,控制器120根据移动设备的运动来激活或去激活。去激活是指关闭显示器110的背光或者显示省电屏幕或其他单色屏幕的操作。可替代地,去激活可以指锁定状态。激活是指从这种去激活状态返回原来的屏幕的操作。可替代地,激活可以指解锁状态。
图15A、15B和图15C是示出根据本公开的实施例的根据移动设备的运动进行的操作的视图。
例如,图15A、15B和图15C是示出根据本公开的实施例的根据移动设备的运动以及用户位置的改变进行的操作的视图。
参照图15A、15B和图15C,控制器120将由运动传感器130所检测的运动状态与存储器130中预存储的条件进行比较。该条件包括由运动传感器140所检测的各种状态条件,诸如俯仰角、横滚角、横摆角、旋转信息和移动时间。该条件可以被划分为使用条件和停用(non-use)条件。移动设备的制造商或内容创建者可以让多个测试对象穿戴移动设备,可以计算当移动设备在使用中时和当移动设备不在使用中时所测量的、运动传感器140的检测结果,可以将所计算的值设置为使用条件和停用条件,并可以存储这些值。
当移动设备(例如控制器120)确定停用条件被满足时,控制器120可以对显示器110进行去激活。当移动设备(例如控制器120)确定运动传感器140的检测结果满足预定使用条件时,控制器120可以激活显示器110。
当如图15A中所示的用户在环绕用户手腕穿戴移动设备1000的同时放低用户手臂时,控制器120将显示器110去激活。在此状态下,当如图15B中所示用户抬高用户手臂时,控制器120检测用户的眼睛。当如图15C中所示移动设备(例如控制器120)确定用户看着移动设备时,控制器120激活显示器110。根据本公开的各种实施例,为检测用户眼睛,移动设备还可以包括诸如相机的拍摄装置。
图16是示出根据本公开的实施例的还包括识别用户的相机的移动设备的配置的视图。
参照图16,移动设备100包括提供在显示器110的一侧上的拍摄装置150(如相机)。拍摄装置150可以包括镜头和图像传感器。通用镜头、广角镜头、变焦镜头等等可以在拍摄装置150中被使用。在拍摄装置150中使用的镜头的种类可以根据移动设备的种类和特性、以及使用环境来确定。图像传感器包括互补金属氧化物半导体(CMOS)和电荷耦合器件(CCD)。根据本公开的各种实施例,当如图2A、图2B和图3中所示的移动设备为可旋转的时,拍摄装置150可以被安置在第二部分100-2的侧表面上,从而即便当移动设备被旋转时也能够保持拍摄装置150的位置。
虽然只有单个拍摄装置在图16中被提供,但根据本公开的各种实施例,多个拍摄装置可以被提供。此外,拍摄装置的位置可以以各种方式确定。
图17A和图17B是示出根据本公开的实施例的用于识别用户并进行解锁操作的方法的视图。
例如,图17A和图17B是示出根据本公开的实施例的、使用所拍摄的图像来进行解锁操作的过程的视图。
根据本公开的各种实施例,当移动设备被锁定时,控制器120确定运动传感器140的检测结果是否满足预定条件。该预定条件可以是使用条件,诸如关于当如图15B中所示的用户抬起用户手臂以看见移动设备时所测量的俯仰角、横滚角和横摆角的信息,以及用户手势的保持时间。例如,当俯仰角、横滚角、横摆角和/或类似物满足存储器130中存储的条件达到预定时间时,控制器120确定:用户将移动设备移动到容易使用移动设备的位置。接着,控制器120可以控制拍摄装置150拍摄图像。
参照图17A,显示器110显示所拍摄的图像1710。控制器120分析所拍摄的图像并识别图像的特性。例如,控制器120可以识别用户的眼睛或用户的面部。具体而言,控制器120将所拍摄的图像1710划分为多个像素块。控制器120计算在每个像素块中包括的像素的像素值的平均值并且将该平均值设置为相应像素块的代表值。控制器120从最左侧的上角沿向右的行方向(inarightlinedirection)、顺序地逐个选择像素块,并将所选像素块的代表值与相邻像素块的代表值比较,并重复这个操作。当代表值之间的差大于或等于预定阈值时,控制器120可以确定相应像素块为与边缘相对应的像素块。通过进行这个操作,控制器120将相对于该边缘划分的像素块当中具有相似像素值的像素块编组在一起,并且将被编组在一起的像素块识别为单个对象。
控制器120从所识别的对象当中搜索具有与存储器130中登记的信息相对应的信息的对象。当搜索到具有与预定面部颜色相对应的像素值的像素块的组时,控制器120可以将该像素块的组识别为用户面部。
参照图17A和图17B,当如图17A中所示的识别出用户面部并且所识别的面部被确定为已登记的用户面部时,控制器120进行解锁并显示桌面屏幕1720或者在进行锁定操作时所显示的最后屏幕,如图17B中所示。
虽然图17中用户面部被拍摄并且进行了解锁,但根据本公开的各种实施例,可以使用密码屏幕来进行解锁。
图18A和图18B是示出根据本公开的实施例的进行解锁操作的密码屏幕的例子的视图。
参照图18A和图18B,示出了根据本公开的实施例的使用密码进行解锁的移动设备的操作。当如图15中所示的移动设备1000的运动满足使用条件时,控制器120如图18A中所示显示密码输入屏幕1800。密码输入屏幕1800可以根据手环型移动设备的形状而包含多个行,像模拟拨号盘一样。用户通过以触摸和拖动方法来滚动每一行以在密码输入区域1810中输入密码。当输入确定的密码时,密码输入屏幕1800被改变并进行解锁操作,如图18B中所示的。相应地,桌面屏幕或最后的屏幕被显示。
在本公开的上述各种实施例中,当由运动传感器140所检测的运动满足预定使用条件时操作控制器120。然而,根据本公开的各种实施例,在不满足单独的使用条件的情况下,当运动被维持预定时间时,控制器120可以开始被操作。
图19是示出根据本公开的实施例的根据移动设备的倾斜角(tiltangle)的改变来进行解锁操作的方法的视图。
例如,图19是示出根据本公开的实施例的用于进行控制操作的方法的视图。
参照图19,当用户固定用户位置时,运动传感器140的频繁地改变的输出值被维持在预定范围之内。如图19中所示的,当由运动传感器140检测到的输出值被维持达到预定时间时,控制器120在那个时间处进行解锁操作。
此外,移动设备的多种运动可以根据运动传感器140的形状被测量。图20示出根据本公开的实施例的移动设备的运动的例子。
图20是示出根据本公开的实施例的移动设备的旋转方向和运动方向的例子的视图。
参照图20,当环绕用户手腕穿戴了移动设备1000时,移动设备1000可以在(+)方向或(-)方向上被旋转。此外,移动设备1000可以在诸如方向(1)至(4)的各种方向上被移动。为了检测(+)或(-)方向上的旋转,移动设备的主体100可以如图2A、2B和图3所示的被配置。此外,移动设备可以被配置为包括地磁传感器或陀螺仪传感器以及加速度传感器,从而检测方向(1)至(4)上的移动以及(+)或(-)方向上的旋转,如图10中所示的。
控制器120可以使用运动传感器140来检测移动设备的多样的运动,诸如摇动方式(shakingpattern)、运动次序、节奏和方向。当不同功能匹配这些运动中的每个并且被存储在存储器130中时,控制器120进行匹配所检测的运动的功能。
当移动设备还包括如图16中所示的拍摄装置时,控制器120可以通过组合运动传感器140的检测结果和拍摄装置150的拍摄结果来确定用户位置。例如,当运动传感器140所检测的运动满足使用条件时,控制器120控制拍摄装置150拍摄图像。控制器120分析所拍摄的图像并检测用户面部或眼睛的位置。当确定没有检测到用户面部或用户眼睛没有对着移动设备时,控制器120可以维持之前的状态而不进行单独的控制操作。例如,当移动设备在锁定状态中时,控制器120可以维持锁定状态而不解锁。相比之下,当检测到用户面部或眼睛时,控制器120可以执行如上所述的各种控制操作。
在上述本公开的各种实施例中,用户的位置是使用拍摄操作和运动检测操作来确定的。然而,除了使用拍摄操作之外,用户的位置可以通过检测用户的肌肉运动(muscularmovement)来识别。例如,根据本公开的各种实施例,移动设备可以包括直接与用户身体接触的、安置在移动设备的主体的内圆周的一部分上的肌电图(EMG)传感器。控制器120基于从EMG传感器输出的检测值来识别用户位置的改变,并且进行与所识别的位置的改变相对应的控制操作。
根据本公开的各种实施例,移动设备还可以包括光传感器。在此情况下,控制器120可以使用光传感器来测量亮度并且可以根据亮度自动地确定是否显示信息。例如,当所测量的亮度高于预定照度时,移动设备可以显示信息,并且当亮度较低时,移动设备可以不显示信息。此外,当亮度较低时,移动设备可以显示警示屏幕并且可以防止事故。
当移动设备被实施为手环型以便如以上所述的能够环绕用户手腕穿戴移动设备时,移动设备可以执行各种功能,所述各种功能是根据手腕的位置或方向、手势的速度和方向、输入旋转的次数、旋转输入的方向、旋转输入的强度以及关于是否保持旋转输入的信息而设置的。
例如,当用户展开用户手臂并快速地或不规则地移动时,移动设备可以关闭屏幕。相比之下,当用户缓慢移动或者当移动设备被确定为以静止状态被放置在用户能看到移动设备的位置时,移动设备可以显示屏幕。
根据本公开的各种实施例,当用户放低用户手臂,移动设备可以将模式改变为待机模式,并且,当用户抬起用户手臂至中等高度,就像用户看手表那样时,移动设备可以进行解锁操作。在此情况下,移动设备通过显示面部识别屏幕或解锁图案来更安全地进行解锁操作。
根据本公开的各种实施例,当用户抬起用户手臂高过用户眼睛时,移动设备可以进行各种操作,诸如通过面部识别执行应用、进入待机模式、自动地回放内容、文本自动滚动等等。
移动设备可以以各种形状来实施。在下文中,将说明根据本公开的各种示例性实施例的移动设备的形状。
图21A和图21B是示出根据本公开的实施例的被实施为柔性设备的移动设备的视图。
参照图21,移动设备的主体可以由柔性材料制成,使得移动设备能够卷绕用户身体。
在此情况下,显示器110可以形成在主体100的一侧的整个表面上。显示器110还可以柔性材料制成,使得显示器110能够沿着主体100被弯曲。例如,移动设备1000以扁平状态被制造,如图21A中所示。用户将移动设备1000放在用户身体上,诸如手腕,并且围绕手腕弯曲和缠绕移动设备1000,如图21B中所示。
根据本公开的各种实施例,当移动设备1000在扁平状态中时,移动设备1000可以将各种元件去激活。根据本公开的各种实施例,当移动设备1000如图21中所示被弯曲时,控制器120可以激活所述元件。
当在主体100正与用户身体接触的情况下主体100的一端被展开时,控制器120可以在主体100的一端上提供的显示区域上显示键盘。
图22是示出根据本公开的实施例的被实施为柔性设备的移动设备的操作的例子的视图。
例如,图22示出根据本公开的实施例的被展开的主体100的一端。
参照图22,一般地,在环绕用户手腕穿戴移动设备时,用户可以使用触摸或运动来控制操作。在此情况下,当用户需要输入各种符号、字符或数字以便像在信使或文档创建程序中一样发送消息或邮件时,主体100的一端可以被展开,如图22中所示的。在此情况下,键盘2100被显示在展开区域上。用户可以通过在键盘2100上触摸匹配符号、字符、数字或各种命令的按键,来使用移动设备1000。
图23A和图23B是示出根据本公开的实施例的用于检测柔性设备的弯曲状态的配置的例子的视图。
例如,图23A和图23B是示出根据本公开的实施例的被实施为柔性设备的移动设备的视图。
参照图23A,多个弯曲传感器2210、2220、2230、2240和2250可以被提供在移动设备1000中。弯曲传感器2210、2220、2230、2240和2250可以通过如上所述的应变计或压电传感器来实施。
因此,当如图23B中所示移动设备1000被弯曲成手环形状时,弯曲传感器2210至2250中的每个检测弯曲。当检测到弯曲时,控制器120可以激活包括显示器110在内的各种元件。在此情况下,显示器110和主体110可以被实施为一个主体。
图24是示出根据本公开的实施例的移动设备(诸如例如图21A和图21B中的移动设备)的横截面配置的例子的视图。
例如,图24为示出根据本公开的实施例的显示器110的横截面配置的例子的视图。
参照图24,显示器110包括保护层2410、显示面板2420、驱动器2430、和基板2440。
保护层2410被形成在显示面板2420的表面上以保护显示面板2420。保护层2410可以由透明硅或透明聚合物材料制成。显示面板2420可以通过使用如上所述的各种面板来实施。显示面板可以通过使用液晶显示器(LCD)、有机发光二极管(OLED)、电泳显示器(EPD)、电致变色显示器(ECD)、等离子体显示面板(PDP)、和/或类似物来实施。驱动器2430具有安装在其中的驱动电路以驱动显示面板。具体而言,驱动电路可以包括晶体管,诸如非晶硅(a-Si)薄膜晶体管(TFT)、低温多晶硅(LTPS)TFT、有机TFT(OTFT)和/或类似物。当施加电信号时,晶体管使显示面板中相应的像素单元发光。因此,图像可以被显示在显示面板上。与保护层2410类似,基板2440可以由透明硅树脂或透明聚合物制成。
显示面板2420可以被提供有触摸传感器。触摸传感器可以通过使用电容型或电阻型的传感器来实施。电容型使用涂覆在显示器110的表面上的电介质物质、通过检测在用户身体的部分触摸显示器110的表面时在用户身体中激发的微电力来计算触摸坐标。电阻型包括两个嵌入显示器110中的电极片,并且当用户触摸屏幕时,通过检测在触摸点处由于上下片之间的接触而流动的电流来计算触摸坐标。如上所述,触摸传感器可以以各种形式来实现。
当移动设备1000如图23B所述被弯曲时,控制器120可以检测在显示器110的表面上的用户触摸,并且可以进行相应的操作。
相比之下,诸如显示器110、控制器120、存储器130和运动传感器140的元件可以被封装到单个模块中。在此情况下,主体100可以由柔性带子(band)制成。
图25是示出根据本公开的实施例的可安装的/可拆卸的移动设备的配置的视图。
例如,图25是示出根据本公开的实施例的移动设备的配置的视图。
参照图25,移动设备1000包括可安装在主体100中或从主体100可拆卸的模块200。显示器110、控制器120、存储器130和运动传感器140被安装在模块200中。模块200可以由硬壳形成。
主体100可以由诸如橡胶、织物或皮革的柔性材料制成。主体100的一个区域被开口以允许模块200被安装在其中或从其中卸载。如图25中所示的,开口区域可以被形成在垂直方向或水平方向上。
图26是示出根据本公开的实施例的部分被打开的手环型移动设备的配置的视图。
参照图26,移动设备可以使主体100的一个侧面区域开口,并且可以允许诸如手腕或脚踝的用户身体通过该开口区域来插入。
图27是示出根据本公开的实施例的部分被打开和被闭合的移动设备的配置的视图。
参照图27,移动设备可以以手铐形状来实现,从而移动设备的一部分被打开和关闭。当移动设备以手铐形状来实现时,被打开和关闭的门(door)2711以及支撑门2711的铰链2710被提供在主体100的一侧上。用户通过掀起门2711并打开门2711、通过开口区域插入用户身体(或其一部分)、然后锁上门2711来穿戴移动设备。在此情况下,显示器110可以与所述门相对地形成。
虽然未示出,但根据本公开的各种实施例,移动设备1000还可以被实施为手表类型。
图28是示出根据本公开的实施例的以移动设备能够与用户身体紧密接触的形式来制造的移动设备的配置的视图。
例如,图28为示出根据本公开的实施例的移动设备1000的外部的例子的视图。
参照图28,移动设备1000还可以包括垫子2830和空气驱动器。
垫子2830被提供在主体100的内表面上。垫子2830可以由如橡胶或乙烯基的聚合物树脂来制成,并且可以通过空气来膨胀和收缩。
空气驱动器向垫子2830供应空气或从垫子2830抽出空气。
如图28中所示的,移动设备1000可以以环形手环型来实施。由于移动设备1000没有在环形手环中包括可打开的门,所以该手环的直径应该大于用户身体的粗度,从而用户能够环绕用户手腕穿戴该手环。因此,存在如下风险,当用户穿戴移动设备1000时移动设备1000从用户手腕掉落(如脱落)。此外,即便在用户穿戴上移动设备1000之后,移动设备1000也可能宽松地被支撑并因而可以被任意地旋转或移动。因此,如上所述的通过旋转或移动移动设备1000来控制移动设备1000可能是困难的。因此,在图28中,由于垫子2830的存在可以使得移动设备1000紧密地与用户身体接触。
根据本公开的各种实施例,移动设备1000还可以包括穿戴按钮2810和释放按钮2820。用户可以穿戴移动设备,然后可以通过选择穿戴按钮2810来输入穿戴命令。当输入穿戴命令时,控制器120驱动空气驱动器以将空气注入垫子2830并使垫子2830膨胀。相反,当选择释放按钮2820时,控制器120驱动空气驱动器以放出空气。相应地,垫子2830可以被收缩成原始状态。空气驱动器可以通过使用空气泵或盘(pan)来实施。
各种按钮可以被提供在移动设备1000的主体100的侧表面上。
图29是示出根据本公开的实施例的其中在侧表面上提供按钮的移动设备的配置的视图。
例如,图29为示出根据本公开的实施例的包括按钮的移动设备1000的外部的例子的视图。
参照图29,多个各种形状的按钮171、172、173和174可以被提供在移动设备1000的主体100的相对的侧表面上。按钮可以包括滚轮按钮并且可以包括其他各种类型的按钮,诸如触摸按钮或按压按钮。
各种功能可以匹配(或被关联于)多个按钮171、172、173和174。例如,各种功能,诸如打开/关闭、改变模式、快捷功能、选择、控制音量以及激活/去激活,可以匹配这些按钮。
如上所述,移动设备可以以各种形状来制造并且可以穿戴在用户身体上。在下文中,将说明移动设备的控制方法。
图30是示出根据本公开的实施例的移动设备的控制方法的流程图。
参照图30,在操作S3010处,移动设备可以检测运动。运动可以包括移动设备的上板的旋转或者移动设备的移动。移动设备的配置可以根据以上所述的本公开的各种示例性实施例以各种方式来实施。移动设备的运动可以根据移动设备的形状而变化。移动设备的配置、运动的类型及其检测方法已在上文中详细地描述,并且因此多余的说明被省略。
当在操作S3010处检测到运动时,移动设备继续进行操作S3020,其中移动设备改变当前显示的屏幕。例如,移动设备可以执行另一应用以替代当前执行的应用,并且可以显示另一应用的执行屏幕。此外,移动设备可以回放另一内容以替代当前回放的内容,或者可以将当前屏幕改变为放大或缩小的屏幕。此外,移动设备可以激活或去激活屏幕,或者可以将屏幕改变为桌面屏幕、锁定屏幕或解锁屏幕。
为检测运动,移动设备可以采用如图2A、2B和图3中所示的可旋转配置,或者可以使用陀螺仪传感器、地磁传感器、加速度传感器和/或类似物,如图10中所示的,或者可以使用它们的任意组合。根据本公开的各种实施例,诸如相机或EMG传感器的另外的元件可以被使用。
图31是示出根据本公开的实施例的根据移动设备的动作和用户眼睛来进行解锁操作的方法的流程图。
例如,图31是示出根据本公开的实施例的详细地说明检测运动和进行解锁操作的流程图。
参照图31,在操作S3110处,移动设备确定是否检测到移动设备的运动。
当在操作S3110处检测到运动时,移动设备继续进行操作S3120,其中移动设备确定在被移动之后移动设备是否以平衡状态被放置。例如,当移动设备为手环型时,常见的是,用户将移动设备放在用户前面,并使用该移动设备。在此情况下,移动设备以平行于地球表面的平衡状态被放置。
当在操作S3120处移动设备确定移动设备是以平衡状态被放置时,移动设备继续进行操作S3130,其中移动设备可以激活拍摄装置。
在操作S3140处,移动设备使用被激活的拍摄装置来拍摄图像。
当在操作S3140处拍摄了图像时,移动设备继续进行操作S3150,其中移动设备分析所拍摄的图像并检测用户眼睛。
当在操作S3150处移动设备检测到用户眼睛时,移动设备继续进行操作S3160,其中移动设备执行解锁操作。
相比之下,若在操作S3150处移动设备没有检测到用户眼睛,那么移动设备可以返回操作S3140。
当在操作S3110处没有检测到特定的运动时,移动设备继续进行操作S3170,其中移动设备确定是否经过预定时间。
当在操作S3170处经过预定时间时,移动设备继续进行操作S3180,其中移动设备可以进入锁定状态。
若在操作S3170处移动设备确定还没有经过预定时间,那么移动设备可以返回操作S3110。
如上所述,移动设备通过组合所拍摄的图像和其他数据以及移动设备的运动来确定用户的位置,并进行与用户的位置相对应的操作。
图32是示出根据本公开的实施例的移动设备的总体配置的框图。
参照图32,移动设备1000包括显示器110、控制器120、存储器130、运动传感器140、拍摄装置150、通信器160、全球定位系统(GPS)接收器171、数字多媒体广播(DMB)接收器172、缓存173、触摸传感器174、音频处理器175、视频处理器176、扬声器177、按钮178,以及麦克风179。
控制器120可以使用在存储器130中存储的程序来控制移动设备的总体操作。具体而言,控制器120基于移动设备的运动来确定用户的位置,并且可以根据确定的结果来进行各种控制操作。显示器110、控制器120、存储器130和运动传感器140的配置和操作已在上文中描述,并且因此多余的说明被省略。
如上所述,拍摄装置150拍摄图像以确定穿戴移动设备1000的用户的存在/不存在以及用户的位置。所拍摄的图像可以被控制器120分析。当确定为用户不存在时,控制器120可以将移动设备维持在锁定状态,而不进行特定控制操作或改变屏幕。
通信器160被配置为根据各种通信方法与各种类型的外部装置通信。通信器160可以包括Wi-Fi芯片161、蓝牙芯片162、近场通信(NFC)芯片163和无线通信芯片164。Wi-Fi芯片161、蓝牙芯片162、NFC芯片163分别用Wi-Fi方法、蓝牙方法和NFC方法与外部装置通信。无线通信芯片164根据各种通信标准,诸如IEEE,紫蜂、第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)和/或类似物,与外部装置通信。通信器160包括上述各种芯片或者根据其他通信标准的芯片中的至少一个,并且可以使用该芯片与外部服务器或其他装置通信。控制器120可以通过通信器160来访问网络服务器,并可以显示网络屏幕。
GPS接收器171从GPS卫星接收GPS信号,并计算移动设备100的当前位置。当执行导航程序时,控制器120可以参照由GPS接收器171检测的位置来进行导航操作。
DMB接收器172接收DMB信号并处理该信号。
缓存173被配置为存储屏幕数据以在显示器110上显示。
触摸传感器174被配置为触摸传感器检测在显示器110的表面上的触摸。控制器120将在所显示的屏幕中的每个对象的坐标值与触摸传感器174的触摸坐标值比较,并确定那个对象被选择。除了或者替代根据运动传感器140所检测的运动的操作,控制器120还可以执行根据由触摸传感器174所检测触摸操纵的各种控制操作。
音频处理器175是指处理内容中包括的音频数据的元件。音频处理器175执行各种处理操作,诸如对于音频数据的解码、放大、噪声滤波。
视频处理器176是指处理内容中包括的视频数据的元件。视频处理器176可以进行各种图像处理操作,诸如对于视频数据的解码、缩放、噪声滤波、帧速率转换以及分辨率转换。
当回放从外部源接收到的内容或者在存储器130中存储的内容的程序被执行时,音频处理器175和视频处理器176可以被驱动。如上所述,当在单个音频内容、移动图像内容或照片内容正被回放的同时用户移动移动设备时,控制器120可以根据运动程度和运动的方向来控制音频处理器175或视频处理器176回放另一内容。
显示器110可以显示由视频处理器176所生成的图像帧。此外,扬声器177可以输出由音频处理器175生成的音频数据。
麦克风179接收用户的语音或其他声音并将用户的语音或其他声音转换为音频数据。控制器130可以将通过麦克风179的用户语音输入用于呼叫过程,或者可将该用户语音转换为音频数据并将音频数据存储在存储器130中。例如,当作出呼叫时,控制器120可以激活麦克风179和扬声器177。
按钮178可以被布置在主体100的侧表面,如图29中所述。
控制器120可以使用在存储器130中存储的各种程序和数据来启动移动设备1000,并且可以根据上述示例性实施例来进行图像显示方法。
控制器120包括随机存取存储器(RAM)121、只读存储器(ROM)122、主CPU123、图形处理单元(GPU)124、和总线125。
RAM121、ROM122、主CPU123以及GPU124可以通过总线125相互连接。除了这些,控制器120还可以包括各种接口,但其图示和描述被省略。
主CPU123访问存储器130并使用存储器130中存储的O/S来进行启动。ROM122存储启动系统的命令集。当输入打开命令并供应电力时,主CPU123根据ROM122中存储的命令将存储器130中存储的O/S复制到RAM121中,执行O/S并启动系统。当完成启动时,主CPU123将存储器130中存储的各种程序复制到RAM121中,执行被复制到RAM121中的程序,并进行各种操作。
GPU124可以在主CPU123的控制下生成桌面屏幕、图标显示屏幕、解锁屏幕和其他转变屏幕。GPU124基于在存储器130中存储的屏幕数据来计算屏幕中的对象的属性值,诸如坐标值、形状、大小和颜色。GPU124可以基于所计算的属性值来生成上述各种屏。所生成的屏幕数据被存储在缓存173中。在缓存173中存储的屏幕数据可以由显示器110来显示。
当如图32中所示的包括通信器160时,移动设备1000可以与另一移动设备互锁或者与另一移动设备共享数据。例如,当检测到与穿戴手环型移动设备的另一用户拍打击掌的手势时,移动设备可以使用NFC或其他无线通信方法来与另一用户的移动设备交互命令或数据。
图32示出根据本公开的实施例的、当移动设备被实施为支持各种功能(诸如通信功能、DMB功能和GPS接收功能)的终端装置时移动设备中可安装的各种元件。因此,根据示例性实施例,图32中所示的元件中的一些可以被省略或被改变,并且另一元件可以被添加。
根据本公开的各种实施例,移动设备可以被制造成各种形状,并且因此移动设备可以被运用在所使用的外部装置中。例如,当移动设备被运用在车辆中时,诸如自行车、自动自行车、或汽车,而不是用户身体中,移动设备可以通过检测车辆的移动方向或速度而被使用。例如,移动设备可以显示群组的成员的位置或者可以告知用户是否有成员远离了群组。此外,当移动设备被用于大超市的购物车时,移动设备可以与大超市中提供的服务器通信,并可以支持各种服务。例如,当与用户希望购买的产品有关的信息被输入时,移动设备可以显示要购买的产品的位置或方向。此外,移动设备可以通过屏幕或声音提供由服务器提供的各种事件信息。此外,移动设备可以显示用户希望购买的产品的列表,或者可以允许用户直接地使用卡识别功能来为所购买的产品付款。
根据以上所述的本公开的各种实施例,用户可以将移动设备穿戴在各种物体以及用户手腕或其他部位,并且可以容易地携带和使用移动设备。用户可以通过作出如下各种手势与移动设备交互,诸如垂直地或水平地移动用户手臂、展开用户手臂并放低用户手腕、好像用户看手表一样抬起用户手腕、向上移动用户的手、像用户挥动用户手腕一样以顺时针方向或逆时针方向旋转用户手腕、和/或类似手势。因此,用户的便利性可以极大地提升。
根据本公开的上述实施例,穿戴手环型移动设备的用户通过移动用户身体来控制移动设备的操作。然而,移动设备的操作可以根据除了运动之外的触摸操纵来控制。在此情况下,根据本公开的各种实施例,移动设备可以提供各种配置的用户接口(UI)以允许用户容易地使用预安装的应用。
图33是示出根据本公开的实施例的移动设备的配置的框图。
参照图33,移动设备3300包括显示器3310、存储器3320和控制器3330。
存储器3320存储在移动设备3300中安装的应用。应用可以是从应用商店下载的或者可以是默认安装的。
控制器3330使用与在存储器3320上存储的应用有关的信息来生成列表UI。列表UI包括与存储器3320中存储的应用相对应的应用项。例如,应用项可以显示与其相关联的每个应用的名称和特性。
显示器3310显示由控制器3330生成的列表UI。
当预定事件发生时,控制器3330执行与列表UI中的至少一个应用项相对应的应用,并且生成该应用的执行屏幕。控制器3330在列表UI中的相应应用项的显示位置上显示执行屏幕。
根据本公开的各种实施例,在此所述的事件可以包括:其中打开移动设备3300的事件、其中解锁移动设备3300的事件、其中在列表UI中选择应用项的事件、其中检测到看着列表UI的用户的眼睛的事件、预定时间段到达的事件和/或类似事件。
图34A、图34B和图34C是示出根据本公开的实施例的移动设备的列表UI的配置的例子的视图。
参照图34A,列表UI3400包括多个应用项3410至3460。应用项3410至3460中的一个应用项3430可以以执行屏幕的形式来显示,而其他应用项只采用应用名称来显示。当消息应用被执行时,被发送或接收的消息3431可以被显示在消息应用的执行屏幕3430中。因此,用户能够容易确定在移动设备3300上存储的应用(如检查所安装的应用的种类),并且可以在移动设备3300上查看应用中的一些的执行屏幕。
控制器3330可以控制显示器3310根据用户操纵改变列表UI的显示状态。
具体而言,当以平行于列表UI3400中应用项的排列方向的方向来进行第一用户操纵时,控制器3330根据第一用户操纵方向来旋转列表UI并且将执行屏幕改变为另一应用的执行屏幕。
此外,当在应用的执行屏幕上进行第二用户操纵时,控制器3330根据第二用户操纵的方向来改变在应用的执行屏幕上显示的内容。例如,当以垂直于项目的排列方向的方向来在应用的执行屏幕上进行第二用户操纵时,控制器3330根据第二用户操纵的方向来改变在应用的执行屏幕上显示的内容。
根据本公开的各种实施例,如图34A中所示,当应用项按垂直方向来排列时,第一用户操纵对应于沿垂直方向的拖动、轻滑等等的操纵,而第二用户操纵对应于沿水平方向的拖动、轻滑等等的操纵。
当用户在触摸图34A中的应用执行屏幕3430或列表UI3400之后沿向上或向下方向进行第一用户操纵时,列表UI沿与第一用户操纵的方向相对应的方向移动并且新的执行屏幕3440如图34B所示被打开。在图34B中,沿向上方向进行第一用户操纵并且被放置在消息应用下方的音乐应用被执行。相应地,音乐应用的执行屏幕3440被显示在列表UI中的相应项目位置上。在音乐应用的执行屏幕3440中,可以显示:显示诸如标识音乐内容的图像或专辑照片、音乐内容名称等等的显示区域3441,以及显示用于控制音乐内容的回放的菜单的菜单区域3442。用户可以使用菜单区域3442来输入各种控制命令以回放、停止、暂停、快退和快进音乐内容。
此外,用户可以进行沿水平方向在应用执行屏幕上拖动或轻滑的第二用户操纵。例如,当沿向左或向右方向在消息应用的执行屏幕3430上进行第二用户操纵时,之前的内容3431被改变为另一内容,如图34C中所示的。
如上所述,移动设备的用户可以仅使用简单操纵而自由地改变应用或内容。
虽然在图34A、图34B和图34C中只有一个应用项以执行屏幕的形式被显示,但多个应用的执行屏幕可以被显示。在此情况下,每个执行屏幕的大小可以根据用户操纵来调整。
图35A、图35B和图35C是示出根据本公开的实施例的提供多个执行屏幕的移动设备的屏幕的视图。
参照图35A,多个执行屏幕3520、3530和3540与应用项3510、3550、3560和3570一起被显示在列表UI3500中。执行屏幕3520、3530和3540中的每个显示执行相应应用的结果。例如,联系人列表应用的执行屏幕3520可以显示存储在移动设备中的联系人信息和电话号码,并且消息应用的执行屏幕3530可以显示被发送或接收的消息。相册应用的执行屏幕3540可以显示所存储的图像和移动图像内容。
在此状态下,用户可以通过在执行屏幕上进行适当的操纵来增加或减少执行屏幕的大小。例如,执行屏幕的大小可以通过进行诸如拉开或捏合(pinchout或pinchin)的操纵来调整。捏合是指使用两个或多个手指触摸屏幕然后移动用户手指以更靠近的操作,并且拉开是指使用两个或多个手指触摸屏幕然后移动用户手指以更分开的操作。
控制器3330使用与显示器3310可操作地集成的触摸传感器来计算触摸点的坐标值。例如,触摸传感器可以被嵌入在显示器3310中。当计算多个触摸点时,控制器3330计算第一触摸点的坐标值与下一触摸点的坐标值之间的距离。此外,控制器3330监视所计算的距离是否被改变。作为监视的结果,当所计算的距离减少时,控制器3330确定捏合发生,并当所计算的距离增加时,控制器3330确定拉开发生。
当控制器3330确定捏合发生时,控制器3330按照该捏合的程度来缩小每个触摸坐标值所处位置的执行屏幕的大小。当控制器3330确定拉开发生时,控制器3330按照该拉开的程度增加每个触摸坐标值所处位置的执行屏幕的大小。
图35B示出其中在消息应用的执行屏幕3530上进行拉开并且执行屏幕3530在垂直方向上拉长的状态。因为在图35B中全部执行屏幕3520、3530和3540的大小被固定,随着消息应用的执行屏幕3530被放大,其他执行屏幕3520和3540的大小被缩小。可替代地,其他执行屏幕3520和3540的大小可以被维持,并且最终,全部执行屏幕3520、3530和3540的大小可以增加。
用户可以通过在执行屏幕3530上进行预定操纵,诸如简单触摸、长触摸、双触摸和/或类似操纵,将执行屏幕放大至全屏幕。例如,当在图35B中消息应用的执行屏幕3530被触摸时,控制器3330可以将执行屏幕放大至显示器的全屏幕,如图35C中所示。当执行屏幕被放大至全屏幕时,用户可以通过向上滚动或向下滚动执行屏幕或者向左或向右操纵执行屏幕来检查(或查看)与另一用户交换的消息。
在上述本公开的实施例中,执行屏幕一直被显示在列表UI上。然而,执行屏幕可以根据用户选择在列表UI中处于打开或关闭状态。
图36A和图36B是示出根据本公开的实施例的移动设备的屏幕配置的视图。
参照图36A和图36B,移动设备3300的显示器3310显示包括应用项的列表UI3600。用户可以选择用户想要查看的应用项。当如图36A所示消息应用项被触摸(如,由参考字母T来表示)时,所触摸的项目被移动到列表UI的特定位置并且执行屏幕3610被打开。根据本公开的各种实施例,列表UI和执行屏幕3610被打开的特定位置可以是列表UI中用户经常查看的可见区域。根据本公开的各种实施例,执行屏幕3610可以在基本上与所触摸的应用项之前所显示(如,在触摸事件之前)的位置相对应的位置处被打开。
被发送或接收的消息3620和各种菜单图标3631、3632和3633被显示在执行屏幕3610中。图36B中,显示执行各种功能,诸如呼叫、答复、删除等等,的菜单图标3631、3632和3633。因此,重要功能可以直接在列表UI上进行,而无需大量的交互。例如,用户可以基于与列表UI(如菜单图标)的直接交互来进行重要(如,或预定义)的功能。
如上所述,移动设备以手环型来形成。显示器3310可以沿手环型的主体的整个外表面来布置。相应地,列表UI可以被显示在移动设备的整个外表面上。
图37A和图37B是示出根据本公开的实施例的在手环型移动设备上显示的列表UI的视图。
参照图37A,列表UI3700被显示在移动设备的整个外表面上。列表UI3700可以是环状(cyclic)UI,其根据用户操纵来循环。例如,用户通过触摸列表UI然后沿平行于项目排列方向的方向来拖动或轻滑,以使列表UI3700旋转,如图37A中所示。
区别区域3720可以被显示在应用项中的第一项和最后项之间,如图37B中所示。此外,告知UI为列表UI的显示区域3710还可以被显示在第一项的上端。区别区域3720可以是不显示任何额外信息的空区域或者可以以不同的颜色或图像来显示。
根据本公开的各种实施例,当安装许多应用时,并非所有的应用项都可以被显示在单个屏幕上。此外,通过列表UI搜索用户想要的应用项可能并不容易。因此,根据本公开的各种实施例,还可以显示用于直接搜索每个应用项的指示符。
图38A、图38B和图38C是示出根据本公开的实施例的在其上列表UI与指示符一起被显示的屏幕的视图。
参照图38A、图38B和图38C,关于在存储器3320中存储的应用的指示符3810被显示在列表UI3800的一侧。指示符3810是指与多个组相对应的标识符,其中多个应用项根据某一分类标准被分类到所述多个组中。例如,应用项可以参照字首音(initialsound)或者应用项的名称的第一个字母来分类,或可以按照诸如游戏、文档和功用的应用的种类来分类。此外,预定数目的应用项可以根据安装次序来分类。图38A中,如A至F的指示符3810被显示。
当用户沿用户需要的方向拖动时,如图38A和图38B中所示,列表UI的显示状态被改变。在此情况下,指示符3810可以被固定在同一位置处。
当指示符之一被选择时,控制器3330可以旋转列表UI以在可见区域中显示与所选指示符相对应的应用项。例如,当用户选择指示符E,如图38C中所示的,属于指示符E的应用项被显示在列表UI3800上。虽然仅由应用项构成的列表UI3800被显示在图38A、图38B和图38C中,但应用项中的一些可以以如上所示的执行屏幕的形式来显示。在此情况下,属于所选指示符的应用当中的、被显示在已改变的列表UI3800的特定位置上的应用项可以自动地以执行屏幕的形式来显示。
根据本公开的各种实施例,列表UI中每个应用项的位置可以任意地由用户来调整。例如,用户可以配置至少一个次序,其中列表UI中的应用项可以按照该次序来调整。列表UI可以根据喜好的、最频繁使用的、最近下载和的/或安装的等等来排列应用。
图39A和图39B是示出根据本公开的实施例的用于改变应用项的显示位置的方法的视图。
参照图39A和图39B,列表UI包括如图39A中所示的多个应用项3910至3960,如图39B所示的多个应用项3920至3970。应用项当中的特定位置的应用项3930可以以执行屏幕的形式来显示。如图39A和图39B中所示的,执行屏幕可以是指示移动设备的电池电量水平、通信状态、日期、时间和/或类似物的主屏幕。
在此状态下,当用户长时间触摸一个应用项3940(例如,达到大于预定义阈值的时段)并拖动该触摸到另一应用项3920的位置时,所选的应用项3940的显示位置被改变,如图39B中所示的。根据本公开的各种实施例,要被移动的应用项可以通过使用除了长触摸之外的各种操纵,诸如例如双触摸、菜单选择和/或类似操纵,来选择。
根据本公开的各种实施例,在用于移动所选应用项的位置的触摸之前的、多个应用项中包括的应用项可以是,与输入用于移动所选应用项的位置的触摸之后的、多个应用项中包括的应用项相同的。例如,用于移动所选应用项的位置的触摸可以不改变正被显示的应用项的集合。
在上述本公开的各种实施例中,列表UI具有按顺序排列的应用项。然而,列表UI和应用项的形状可以以各种方式被改变。
例如,可以提供以水滴形式的列表UI。具体而言,当水中的小气泡上升到水面、被吸收入现有的空气泡,并且空气泡逐渐变大时,应用执行屏幕可以被显示。此外,当球形形式的空气泡被按压并变得细小时,应用执行屏幕可以被显示。此外,当空气被注入空气泡并且使该空气泡膨胀并破裂时,应用执行屏幕可以被显示。
图40A、图40B、图40C、图40D和图40E是示出根据本公开的实施例的移动设备的配置的视图。
参照图40A,移动设备显示列表UI4000。在此状态下,当一个应用项被选择或被放置在可见区域上时,显示该应用项的区域被放大,如图40B中所示。图40B中,第三应用项被放大并且小水滴形式的对象4010被显示在该应用项的区域上。当水滴对象4010逐渐地膨胀并破裂,如图40C和图40D中所示,对象4010被相应的应用项的执行屏幕4020取代,如图40E中所示的。
图41A和图41B是示出根据本公开的实施例的以水滴形式来生成的列表UI的视图。
参照图41A,移动设备显示待机屏幕4100。待机屏幕4100可以以锁定状态或待机状态来显示。包括时钟的分针4101和时针4102的、水滴形式的对象可以被显示待机屏幕4100中。对象的位置可以根据移动设备的运动而摇晃。
在其中显示图41A中所示的待机屏幕的状态下,当用户输入解锁手势或选择按钮时,待机屏幕被改变为列表UI屏幕4110,如图41B中所示的。
如图41B中所示,多个应用项4111至4115可以被显示在列表UI屏幕4110中。应用项4111至4115以水滴对象的形式被显示,如图41B中所示。根据本公开的各种实施例,与相应应用或执行屏幕有关的信息可以作为缩略图被显示在对象中(例如,在相关联的应用项4111至4115之内)。
高亮效果可以被提供给:被放置在列表UI屏幕4110中的特定区域上的应用项。图41B中,被放置在中央区域处的应用项4111被显示为大而亮的图像。应用项4111至4115被显示为固定图像。然而,对象显示位置或表面形状可以被显示为,好像根据穿戴移动设备的用户的运动而被摇晃一样。
图42A、图42B、图42C,和图42D是示出根据本公开的实施例的用于改变列表UI的方法(诸如用于改变图41A和图41B中所示的列表UI的方法)的视图。
如图42A中所示,其中以水滴的形式显示应用项4111至4115的列表UI4110可以被显示。应用项4111至4115在屏幕中被随机地排列。根据本公开的各种实施例,用户可以配置应用项4111至4115的排列。根据本公开的各种实施例,与最大的所显示的应用项相对应的应用项可以由用户配置为喜好的应用项、最近使用的应用项、最频繁地使用的应用项、和/或类似物。根据本公开的各种实施例,默认地被显示为最大应用项的应用项可以由用户来配置。
用户可以通过向上滚动和向下滚动来改变被放置在中央的应用项。具体而言,当用户触摸屏幕(例如,图42A中所示的由参考字母T表示的)并拖动、或轻滑该触摸、和/或类似操纵时,列表UI4110根据操纵的方向被改变,并且应用项4111至4115的显示位置也被改变。因此,当被放置在底侧下方的应用项4116被放置在中央区域时,如图42B中所示,应用项4116被放大并明亮地显示,并且相应应用的执行屏幕被显示在应用项4116中。
图42B示出其中相应应用为照片相册应用的情况。在此情况下,如图42C中所示的,所存储的照片之一4116a可以被显示在水滴中。在此状态下,当用户沿水平方向拖动或轻滑时,另一照片4116b在水滴中被显示,如图42D中所示的。此外,用户可选择的各种菜单以及内容可以根据应用的种类在水滴对象中被显示。当一个水滴对象直接地被选择时,所选的水滴对象可以被放大并显示得仿佛从近距离观察水滴一样,并且可以另外地显示信息和功能。
图43A、图43B、图43C和图43D是示出根据本公开的实施例的被放大并显示的水滴对象的视图。
当水滴对象之一4310被选择时,如图43A中所示,所选择的水滴对象被放大并显示在全屏幕上,如图43B中所示。在图43A、图43B、图43C和图43D中,音乐应用被选择。在此情况下,关于音乐内容之一的代表图像4311及其控制菜单4312被显示。用户可以通过操纵控制菜单4312来回放音乐内容。
在此状态下,当用户沿水平方向轻滑时,内容可以被改变为另一内容。因此,关于新的内容的代表图像4313和控制菜单4312被显示。水滴对象或背景的颜色可以根据内容的种类而改变。
当用户想要返回原始状态时,用户可以选择匹配返回功能的按钮或者可以输入匹配返回功能的手势。例如,图43示出其中用户用手指触摸两个点T1和T2并移动手指以使它们更靠近的捏合操纵。因此,如图43D中所示,控制器3330可以改变列表UI为原始状态并显示列表UI。在此情况下,被改变的内容的代表图像4313可以在中央区域处显示的应用项4310中被显示。因此,用户可以直接地在列表UI上检查(如确定)最近被回放的内容。
此外,列表UI可以以各种形状来显示。
图44A、图44B、图44C和图44D示出根据本公开的实施例的列表UI形状的例子。
参照图44A,列表UI4400以现实生活中很容易拥有的熟知的工具的形式被显示,例如抽屉、书架、盒子和类似物,并且应用项以按顺序被叠置(piled)在该工具中的纸、照片和文件的形式被显示。
图44A示出以文件形式来显示的应用项。应用名称可以被记录在每个文件上。在此状态下,当用户选择一个文件4410时,提供好像所选文件被打开一样的图形效果,并且相应应用的执行屏幕被显示。在图44B中,备忘录应用被选择,并且显示备忘录的内容的执行屏幕4410被显示。当备忘录内容很长时,还可以显示用于滚动备忘录内容的菜单4411。此外,当多个备忘录被存储时,被示出为好像多个文档被叠置一样的图像4412可以另外地被显示在执行屏幕4410的下部。
在此状态下,当用户触摸备忘录的角并且拖动或轻滑该触摸时,好像用户翻页一样,之前的备忘录消失好像该备忘录被撕下,并且另一备忘录被显示在执行屏幕4410中,如图44C中所示。例如,执行屏中可以被表示为像有粘性的便签(momopad)一样。
此外,用户可以通过触摸执行屏幕4410或触摸图像4412来检查另外的信息。在图44D中,当用户触摸执行屏幕4410时,诸如创建日期或备忘录的作者的详细信息4413可以被显示在触摸点处。此外,当用户触摸图像4412时,指示存储的备忘录的数目的消息4414可以被显示。
根据本公开的各种实施例,移动设备可以以如上所述的手环型来实施。在此情况下,当用户用用户的裸眼来看着移动设备时,只有一半的外表面进入视野。因此,即便当显示器3310围绕移动设备的整个外表面被安置或者占据多半的面积时,对用户可见的区域也是有限的。实际上对用户可见的区域在此说明书中被称为可见区域。当移动设备被旋转时,可见区域被改变。当可见区域被改变时,控制器3330可以相应地改变列表UI。
图45A、图45B和图45C是示出根据本公开的实施例的根据可见区域的改变来改变列表UI的过程的视图。
图45A示出其中当手环型的移动设备被展开时用户看到的中间区域的情况。在此情况下,可见区域被放置在显示器3310的所有区域当中的中间区域上。因此,被放置在中间区域的第11应用项被高亮,并且指示符4510被显示在应用项周围。应用的执行屏幕可以被显示在高亮的应用项上,如以上所述的本公开的实施例中的。
在此状态下,当用户看着显示器3310的上部区域时,可见区域被移动到该上部区域。因此,列表UI沿向上方向滑动,并且被显示在之前的可见区域中的第9至第15应用项被显示在上部区域上,如图45B中所示的。此外,指示符4510被移动到上部区域。
相比之下,当用户看着下部区域时,列表UI沿向下方向滑动,并且被显示在之前的可见区域中的第9至第15应用项被显示在下部区域上,如图45C中所示的。此外,指示符4510被移动到下部区域。
不能被用户看到的不可见区域可以根据本公开的实施例来不同地处理。
图46A、图46B和图46C是示出根据本公开的实施例的根据列表UI显示方法的屏幕配置的视图。
参照图46A,应用项和指示符4510被显示在显示器3310的整个区域中的可见区域中,并且其他区域,例如对用户眼睛不可见的不可见区域,部分被关闭。如图46B和图46C中所示的,当用户的眼睛沿向上方向或向下方向移动时,可见区域的位置根据移动方向被改变。当显示器3310包括有机发光二极管(OLED)等等而且像素代表黑色时,该像素不消耗电力并且可以获得省电效果。
虽然在图45A至图46C中列表UI根据可见区域的位置而改变,但显示器3310的屏幕可以在必要时被维持,即使当可见区域被改变时。例如,用户可以旋转手环型移动设备以看到用户想看到的一部分的图像。因此,当检测到预定用户手势时,控制器3330可以根据屏幕的当前配置来固定显示器3310的屏幕,即使当可见区域被改变时。例如,当检测到用用户的手掌抓握移动设备的主体并旋转移动设备的用户手势时,或者当在选择屏幕上显示的特定菜单之后可见区域被改变时,屏幕可以被固定。
根据本公开的各种实施例,上述指示符可以是一直固定的,但可以是通常不被显示的并且可以在使用指示符时被显示。可替代地,指示符通常可以以简单和小尺寸被显示,当特定事件发生时,指示符可以被改变为详细的指示符。
图47A,图47B,和图47C示出根据本公开的实施例的显示指示符的用户手势。
参照图47A,移动设备3300在列表UI4700中显示地第一指示符4710。在此状态下,当用户长按(longtap)第一指示符4710或用用户的手抓住(hold)第一指示符4710时,第二指示符4720被显示在用户的手指旁边,如图47B中所示的。第二指示符4720可以由比第一指示符4710更多并且更具体的索引信息构成。在轻击或抓住第二指示符4720时,用户可以通过滚动或揉搓(rub)以在索引基础上移动该列表。
图48A和图48B是示出根据本公开的实施例的向其添加指示符的列表UI的配置的视图。例如,图48A和图48B是根据本公开的实施例的、放大图47A、图47B和图47C的屏幕的视图。
参照图48A,对于列表UI4700中的应用项当中的每个组的第一项,相应的组的索引信息4811-1、4811-2被另外地显示。
在此状态下,当用户作出长按或用用户的手抓住的手势时,第一指示符4710被改变为第二指示符4720,如图48B中所示的。在此状态下,当用户向上拖动用户的手时,紧接着当前被显示在可见区域上的属于组K的应用项的、属于组L的应用可以直接地被显示。
如上所述,各种列表UI可以考虑到手环型移动设备的形状特性而被提供。
根据联系图33至图48B说明的本公开的各种实施例,用户通过各种触摸操纵来改变列表UI。然而,列表UI的操作可以如上所述地根据移动设备的运动或者用户的位置来控制。例如,图33中所说明的移动设备可以结合相对于图1至图32说明的本公开的各种实施例来实施。因此,移动设备可以按照除了用户触摸操纵之外的各种方法来确定可见区域,并且可以自动地改变列表UI。
图49A至图50C示出根据本公开的各种实施例的用于确定可见区域的方法。
参照图49A、图49B和图49C,示出了使用陀螺仪传感器、地磁传感器、加速度传感器等等来确定可见区域的方法。因为使用这些传感器来检测移动设备的运动的方法在上述本公开的实施例中已详细地描述了,多余的说明被省略。
图49A示出常规状态下的可见区域。虽然在图49A、图49B和图49C中移动设备借助于固定部件(securingmeans)4910和4920而固定在手环状态中,但移动设备可以被实施为柔性设备或可以以如上所述的任何其他形状来实施。
在此所述的常规状态是指:其中在用户将移动设备穿戴在用户手腕上并调整用户的手背以对着用户的眼睛时所检测的俯仰角、横滚角和横摆角中的至少一个满足角度范围的状态。例如,当在水平状态中所测量的俯仰角和横滚角为0°时,在俯仰角和横滚角被测量为在-20~+20°的范围中时确定为常规状态。这种角度范围可以通过实验事先被测量,并且可以被存储在移动设备的存储器3320中。根据本公开的各种实施例,角度范围可以是用户可配置的(例如,根据用户的喜好)。在常规状态中,移动设备的显示器3310的整个区域中的中间区域被确定为可见区域。
在此状态下,当用户沿向上方向旋转用户手腕90°时,固定部件4910和4920朝向下方,并且可见区域被改变为显示器3310的整个区域中的下部区域,如图49B中所示的。相比之下,当在图49A中所示的状态下用户沿向下方向旋转用户手腕90°,或者在图49B中所示状态下旋转用户手腕180°时,固定部件4910和4920朝向上方。相应地,可见区域被改变为显示器3310的整个区域的上部区域,如图49C中所示的。
参照图50A、图50B和图50C,示出了根据本公开的实施例的通过拍摄用户来确定可见区域的方法。至少一个传感器、相机和/或类似物可以被实现并用于更精确地确定可见区域。在图50A、图50B和图50C中,包括两个传感器、相机和/或类似物。
如图50A中所示,在移动设备的显示器3310中,两个传感器、相机和/或类似物151和152可以是彼此间隔大于预定距离的。为了避免对屏幕显示的限制,每个传感器、相机和/或类似物151和152可以被放置在移动设备的一侧。
控制器3330分析由两个传感器、相机和/或类似物151和152所拍摄的图像,并识别对象。具体而言,控制器3330识别出用户的面部区域。因为用于识别面部的方法在上述本公开的实施例中已详细地描述了,多余的说明被省略。在其中用户看着移动设备的前面的常规状态下,如图50A中所示的,用户面部可以被两个传感器、相机和/或类似物151和152所拍摄。当面部区域从两个传感器、相机和/或类似物151和152所拍摄的全部图像中被识别出时,控制器3330确定出常规状态并且将两个传感器、相机和/或类似物151和152之间所放置的显示器3310的屏幕区域确定为可见区域。
根据本公开的各种实施例,当仅通过第一传感器、相机和/或类似物151检测到用户面部时,如图50B中所示,布置在第一拍摄装置151周围的、显示器3310的屏幕区域被确定为可见区域,并且当仅通过第二传感器、相机和/或类似物152检测到用户面部时,如图50C中所示,布置在第二拍摄装置152周围的、显示器3310的屏幕区域被确定为可见区域。
当用户可见区域被确定时,控制器3330可以执行与被显示在可见区域的预定位置上的项目相对应的应用,并且可以在相应位置显示所执行应用的执行屏幕。
根据上述本公开的各种实施例,移动设备提供关于所安装的应用的列表UI并且伴随列表UI提供一些应用的执行屏幕,从而用户能够容易地使用这些应用。
图51是示出根据本公开的各种实施例的的UI显示方法的流程图。
参照图51,在操作S5100,移动设备显示列表UI。
在操作S5110,至少一个应用被执行。
在操作5120,得到的执行屏幕被显示在列表UI中。根据本公开的实施例的执行屏幕可以直接被显示在初始列表UI上,或者可以只在被用户选择时被显示。
在此状态下,用户可以沿各种方向来操纵列表UI。在操作S5130,移动设备确定用户是否操纵列表UI。
若在操作S5130移动设备确定用户操纵列表UI,那么移动设备可以继续进行操作S5140,其中移动设备根据用户操纵的方向来改变列表UI的显示状态。例如,移动设备可以改变在列表UI上显示的应用项或者可以改变在应用的执行屏幕上显示的内容。
相比之下,若在操作S5130移动设备确定用户没有操作列表UI,那么移动设备可以继续轮询列表UI的用户操纵的指示。例如,移动设备可以在轮询用户操纵的指示的同时进行其他相应功能或操作。
此外,列表UI和执行屏幕可以以相对于图33至图50C所述的各种形状来提供。
因此,手环型的移动设备可以更有效地和容易地被使用。
由于手环型的移动设备在如上所述被直接穿戴在用户身体上的同时由用户携带,因此移动设备可以在用户做锻炼时,如跑步或体操,被使用。因此,移动设备可以提供各种服务,诸如测量锻炼量、管理健康和管理体型。因为在用户做锻炼时移动设备被剧烈地摇晃并且受到环境噪声的影响,故可能难以使用触摸、运动手势、语音识别和/或类似方式的操纵方法来控制移动设备。因此,根据移动设备的使用环境的、用更简单的方法来操作移动设备可能是必要的。在下文中,使用手环型移动设备的各种场景及其UI配置的例子将被详细地说明。
图52、图53、图54、图55、图56A、图56B和图56C是示出根据本公开的实施例的使用无缝形式的显示器的UI显示方法的视图。例如,图52至图55为示出根据本公开的各种实施例的、被实施为具有大于可见区域的显示器的移动设备的屏幕显示方法的例子的视图。
如相对于图2A至图4C所说明的,显示器110可以以无缝方式被安置在移动设备100的整个外表面上。根据本公开的各种实施例,显示器110可以被实施为在移动设备100的表面上相对于主体可旋转。
在此情况下,即使当存储器130中存储的应用的执行屏幕被显示在显示器110的整个显示区域上时,执行屏幕的一部分在实际上对用户可见的可见区域中被示出。例如,当移动设备100被实施为手环型时,只有用户看到的显示区域被示出,并且在正向显示区域的后面的显示区域上显示的执行屏幕没有被示出。
当通过诸如触摸传感器174和运动传感器140的传感器检测到用户交互时,控制器120可以根据用户交互来改变在可见区域中显示的执行屏幕的部分。用户交互可以指的是诸如用用户的手掌盖住显示器110的表面并沿一个方向向上或向下拖动的揉搓操作、简单地触摸显示器110的表面并拖动或轻滑、以及移动或扭动穿戴移动设备100的身体的各种操纵。当检测到用户交互时,控制器120可以通过沿匹配用户交互的方向滚动执行屏幕来改变在可见区域中示出的部分。
图52示出沿水平方向放置的显示器。在此情况下,执行屏幕的5210和5220中的仅一部分5210在可见区域中被示出。在此状态下,当用户进行定义的交互时,其他部分5220在可见区域中被示出。
图53示出沿垂直方向放置的显示器。在此情况下,在可见区域中示出的执行屏幕5310和5320的一部分根据用户交互来调整。
在图52和图53中,当整个显示区域是可见区域大2倍左右时,屏幕在2个深度中被改变。然而,整个显示区域可以比可见区域大超过2倍。
图54示出在3个深度中改变屏幕的例子。参照图54,执行屏幕可以被划分为3个阶段5410、5420和5430,并且每个屏幕单元可以被显示在可见区域中。
图55示出在3个深度中实现的执行屏幕的例子。具体而言,图55示出在控制器120执行跑步管理应用时被显示在显示器110的整个显示区域上的执行屏幕。如图55中所示,整个执行屏幕(例如,包括阶段5510、5520和5530)比可见区域要大。因此,控制器120可以根据用户交互来分阶段显示执行屏幕(例如,阶段5510、5520和5530)。
图56A、图56B和图56C是示出根据本公开的实施例的用于改变在可见区域上显示的屏幕的方法以及相应地被显示在可见区域中的执行屏幕的例子的视图。
参照图56A,图55的执行屏幕的中间部分5520被显示在可见区域中。参照图56A,可以显示用户已跑的距离、经过的时间、速度曲线,各种菜单等等。根据本公开的各种实施例,执行屏幕的上部5510的一部分被显示在可见区域的上端,并且执行屏幕的下部5530的一部分被显示在可见区域的下端。
在此状态下,当用户进行第一用户交互时,上部5510向下移动并且被显示在可见区域中,如图56B中所示的。上部5510可以显示与用户的好友的跑步历史有关的信息。相比之下,当用户执行第二用户交互时,下部5530向上移动并且被显示在可见区域中,如图56C中所示的。执行屏幕的下部5530可以显示与跑步路线和距离有关的信息。
图57A和图57B是示出根据本公开的实施例的使用跑步管理应用的方法的视图。
参照图57A和图57B,执行屏幕5520显示如用户已跑的距离、经过的时间、和每小时的速度的信息,以及按钮5521和5522。用户通过按下开始按钮522并开始锻炼并且在结束运动时按下结束按钮5521来管理用户自身的运动。
图58A至58G是示出根据本公开的实施例的使用跑步管理应用的整个执行屏幕的方法的视图。
参照图58A至图58G,示出显示器110的整个显示区域中的可见区域。图58A示出被显示在可见区域中的执行屏幕的中间屏幕部分5520。在此状态下,当用户做出向下揉搓或向右倾斜穿戴移动设备的用户手腕的手势时,执行屏幕的上部屏幕部分5510向下移动并显示在可见区域中,如图48B中所示的。改变在可见区域中显示的屏幕的用户交互可以以各种方式来设置。然而,在本公开的当前实施例中,屏幕被设置为通过向下揉搓或向右倾斜穿戴移动设备的用户手腕的手势或者通过向上揉搓或向左倾斜穿戴移动设备100的用户手腕的手势,来改变。为了方便说明,向下揉搓或向右倾斜穿戴移动设备100的用户手腕的手势被定义为第一用户交互,并且相反的手势被定义为第二用户交互。
如图58B中所示,上部屏幕部分5510可以以列表的形式来显示被登记为用户的好友的人的锻炼记录。用户可以触摸并拖动屏幕。因此,在上部屏幕部分5510上显示的列表可以被滚动,并且其他人的锻炼记录可以被显示,如图58C中所示的。
在此状态下,当进行第二用户交互时,屏幕被改变回中间屏幕部分5520,如图58D中所示。相比之下,当如图58A或图58D中所示中间屏幕部分5520被显示并且进行第二用户交互时,下部屏幕部分5530被显示,如图58E中所示的。下部屏幕部分5530可以显示跑步路线、一天的距离和经过时间。此外,用于查看之前的跑步记录的历史菜单可以被显示。当选择历史菜单时,之前的记录被显示,如图58F中所示的。当下部屏幕部分5530被显示并且进行第一用户交互时,中间屏幕部分5520再次被显示,如图58G中所示的。
此外,当用户没有看着移动设备时,屏幕可以被改变为另一形式。
图59A、图59B和图59C示出根据本公开的实施例的、当在移动设备正执行跑步管理应用的同时用户放低(lower)移动设备时屏幕中的改变。
参照图59A、图59B和图59C,作为例子,当跑步管理应用的整个执行屏幕的中间屏幕部分5520如图59A中所示被显示时,并且当用户如图59B中所示放低穿戴移动设备100的用户的手时,屏幕如图59C中所示被改变。图59C将跑步状况示出为直方图图像5900。通过提供振动和视觉反馈,移动设备100能够在跑步时允许用户直观地知道当前的速度。使用运动传感器140来确定用户是否放低用户的手。
根据本公开的各种实施例,当除了用户交互之外的事件发生时,屏幕可以被改变。
图60A、60B和图60C是示出根据本公开的实施例的显示关于其他行为的信息的视图。
参照图60A、图60B和图60C,当跑步管理应用的执行屏幕的中间屏幕部分5520如图60A中所示被显示,并且在移动设备100登记的另一个人的跑步结束或者另一个人设置一记录时,上部屏幕部分5510如图60B中所示向下移动并且与相关的人有关的信息被传播。当经过预定时间(例如,3秒)时,原来的屏幕5520如图60C中所示再次被显示,即使没有额外的用户交互。与其他的人有关的信息可以通过与移动设备100通信的服务器装置来提供。服务器装置可以以各种形式来实施,诸如网络服务器、云服务器等等。虽然在图60A、图60B和图60C中与用户的好友有关的信息是自动地通知的,但与好友有关的信息可以以各种方式来通知。例如,当如图60A中所示,用户触摸屏幕上的某一点或隐藏区域时,如图60B中所示的屏幕5530可以被显示。此外,当上部屏幕部分5510首先被显示并且用户选择了列表中一个项目时,与所选的人有关的信息可以被显示。
此外,各种个人信息以跑步路线可以通过跑步管理应用来显示。
图61A、图61B、图61C、图61D和图61E是示出根据本公开的实施例的显示电子设备的屏幕的方法的视图。
参照图61A、图61B、图61C、图61D和图61E,如图61A中所示,屏幕5520被显示并且进行第二用户交互,下部屏幕部分5530如图61B中所示被显示。如上所述,下部屏幕部分5530以地图的形式显示一天的跑步路线。根据本公开的各种实施例,指示路线周围拍摄的照片的数目的菜单5540在下部屏幕部分5530上被显示。如图61C中所示,5张照片被存储。
当用户选择菜单5540时,照片的缩略图5531至5535被显示在路线上照片的各个拍摄位置处。在此状态下,当如图61D中所示一个缩略图5533被选择时,所选择的缩略图5533被放大并显示,如图61E中所示。如上所述,跑步管理应用提供各种与跑步有关的服务,从而用户能够对跑步感兴趣。
图62是示出根据本公开的实施例的跑步管理应用的执行屏幕的配置例子的视图。
参照图62,执行屏幕的上部屏幕部分6210以列表的形式显示诸如好友的照片、每一段的速度、距离以及经过的时间的信息。中间屏幕部分6220可以显示如下信息,如距离、持续时间、平均速度、消耗的平均卡路里,每个段中消耗的卡路里、和步数,以及诸如暂停、停止、开始等等的菜单。下部屏幕部分6230可以显示跟踪地图、一天的照片数目、历史菜单、和类似物。通过根据如上所述的各种用户交互来改变屏幕,用户可以有效地管理跑步锻炼。
图63是示出根据本公开的实施例的健身应用的执行屏幕的的视图。
参照图63,健身应用的执行屏幕可以被划分为3个单元屏幕。上部屏幕部分6310显示如下信息,诸如登记的好友的图标或照片以及名字、日期、带有目标的锻炼量、时间、消耗的卡路里等等。
中间屏幕部分6320显示与用户锻炼有关的各种内容以及信息。具体而言,可以显示锻炼的目标数、目标时间、移动图像/图像引导以及锻炼开始/结束选择菜单。下部屏幕部分6330通过将锻炼量映射到用户身体来显示用户的锻炼量。具体而言,锻炼历史菜单、带有目标的锻炼量、时间、消耗的卡路里、身体尺寸、整个身体图像、以及身体的锻炼部分被显示为图形图像。
图64A、图64B和图64C是示出根据本公开的实施例的根据用户交互来改变执行屏幕(诸如例如图63中的执行屏幕)的方法视图。
参照图64A、图64B和图64C,类似诸如上述示例性实施例的本公开的其他各种实施例,执行屏幕可以根据如图64A和图64B中所示的第二用户交互来改变为上部屏幕部分,或者可以根据如图64B和图64C中所示的第一用户交互来改变为下部屏幕部分。
如上所述,跑步管理服务或健身服务可以被提供在移动设备上。这个应用可以被实施为单个应用,诸如健康应用。此外,这些应用可以在以上关于图34A、图34B和图34C说明的列表UI中被显示。
图65A、图65B、图65C和图65D是示出根据本公开的实施例的其中显示包括健康应用的各种应用信息的列表UI的例子的视图。
参照图65A,列表UI屏幕6500显示包括健康应用的执行屏幕6510的各种应用项。执行屏幕6510包括跑步管理菜单6511、用户信息6512和健身菜单6513。
如图65B中所示,当用户触摸跑步管理菜单6511时,管理跑步锻炼的第一屏幕6520被显示。相比之下,如图65C中所示,当用户触摸健身菜单6513时,管理健身锻炼的第二屏幕6530被显示。如图65D中所示,当每个屏幕6520和6530的停止菜单被选择时,原始屏幕6500再次被显示。
图66A和图66B是示出根据本公开的实施例的在用户正在锻炼的同时显示的屏幕的例子的视图。
参照图66A,示出健身应用的执行屏幕6320。当选择了执行屏幕6320的开始菜单时,指示锻炼的程度的图像6321如图66B所示被显示。图像6321被划分为多个单元图像。控制器120根据锻炼的程度来分阶段地改变单元图像的颜色或形状。例如,当用户做举杠铃的锻炼时,单元图像的颜色根据举起的数目逐个地改变。
如上所述,移动设备可以执行各种与健康有关的应用,并且应用的执行屏幕根据移动设备的特性自由地改变。存在各种在移动设备中执行的应用。
图67是示出根据本公开的实施例的音乐应用的执行屏幕的例子的视图。
参照图67,整个执行屏幕被划分为上部屏幕部分6710、中间屏幕部分6720和下部屏幕部分6730。上部屏幕部分6710显示专辑列表,其中可由音乐应用显示的音乐专辑的封面以缩率图的形式来排列。中间屏幕部分6720显示音乐内容的回放屏幕。回放屏幕显示,诸如正在回放的音乐的标题、歌手和专辑照片的信息,诸如随机播放(shuffle)、回放上一首歌、回放下一首歌、回放、暂停和重复回放的各种菜单,以及指示回放时间和剩余时间以及回放的当前进度(degree)的回放条。下部屏幕部分6730显示用户选择要回放的音乐列表。音乐列表中的每个音乐项可以显示信息,诸如例如,专辑照片、音乐标题、歌手等等。在音乐列表中当前被回放的音乐可以被高亮显示。
图68A、图68B、图68C、图68D、图68E、图68F、图68G和图68H是示出根据本公开的实施例的用于操纵音乐应用的执行屏幕的方法的视图。
参照图68A,音乐应用的执行屏幕6811可以被显示在列表UI6810中。当用户触摸执行屏幕6811时,执行屏幕被改变为全应用屏幕,如图68B中所示。在此状态下,当用户进行第二用户交互时,音乐列表6820被显示,如图68D中所示。在音乐列表6820中当前被回放的音乐项被高亮显示。当用户选择音乐列表6820中的另一项时,所选项目的音乐内容被回放并且高亮显示被改变,如图68E中所示的。
在此状态下,当进行第一用户交互时,屏幕被改变为回放屏幕6830,如图68F中所示的。回放屏幕6830可以显示最新回放的音乐内容的专辑照片、标题等等。在此状态下,当进行第二用户交互时,专辑列表屏幕6840被显示,如图68G中所示。
相比之下,当用户放低穿戴移动设备100的用户的手时,执行屏幕可以被改变成另一形式。
图69A、图69B、图69C和图69D是示出根据本公开的实施例的执行屏幕的改变示例的视图。
参照图69A,当回放屏幕6830被显示并且用户放低用户的手,如图69D中所示的,均衡器屏幕6840被显示,如图69B中所示的。在此状态下,当用户作出挥动用户手腕的手势时,下一音乐内容被回放并且与已改变的音乐内容相对应的均衡器屏幕6850被显示,如图69C中所示。
如上所述,移动设备可以根据在显示器110的表面上进行的用户交互或者移动移动设备自身的用户交互来进行各种控制操作。例如,将锁定状态改变为解锁状态的解锁操作还可以通过用户交互自动地进行。
图70A、图70B、图70C和图70D是示出根据本公开的实施例的移动设备的屏幕操纵方法的例子的视图。例如,图70A、图70B、图70C和图70D是示出根据本公开的实施例的、根据用户交互来进行解锁操作的过程的视图。
参照图70A,当用户放低用户手臂时,移动设备在省电模式或锁定模式中操作。在此状态下,简短信息(如时钟信息)6911可以被显示在黑色屏幕6910上。
在此状态下,如图70B中所示的,当用户抬起用户手臂时,控制器120显示另外的信息。例如,当用户抬起用户手臂时,视觉效果被添加,并且除了时钟信息6911之外的各种另外的信息6921和6922,诸如天气或日期信息、所接收消息的通知、通信状态、电池电量水平等等,可以被显示在屏幕6920中。
在此状态下,当用户将目光保持在屏幕上时,控制器120识别用户眼睛。控制器120可以通过使用如图50中所示的多个拍摄装置来拍摄用户的面部,来识别用户眼睛。如图70C中所示,在识别出用户眼睛或者用户抬起用户手臂之后经过预定的‘a’秒(例如,‘a’为预定数),控制器120显示列表UI6930。其后,控制器120执行与被放置在列表UI6930的中间的应用项相对应的应用,并且在列表UI中自动地显示执行屏幕,如图70D中所示的。在图70D中,被放置在列表UI6930的中间的照片应用被执行,并且它的执行屏幕被显示。
列表UI可以不必被显示在全屏幕上。列表UI可以被隐藏在显示器110中或显示器110的边缘中,并且可以根据用户交互来显示。
图71A、图71B和图71C是示出根据本公开的实施例的显示UI的方法的视图。
参照图71A,移动设备的屏幕7000显示第一引导图像7010和第二引导图像7020。第一和第二引导图像7010和7020可以是用于直观地告知用户在这样的方向上存在被隐藏的UI(或者以其他方式不显示的UI)的图像。此外,线型UI可以被用作引导图像。在图71A、图71B和图71C中,第一和第二引导图像以细线的形式沿屏幕7000的边缘被显示。
在此状态下,如图71B中所示,当用户进行触摸屏幕然后向右拖动或者向右倾斜用户手腕的第一用户交互时,第一线型UI7110被显示。具体而言,当检测到第一用户交互时,控制器120移动在屏幕内部的第一引导图像7010并且逐渐地将第一引导图像7010改变为第一线型UI7110。相比之下,如图71C中所示,当用户进行触摸屏幕然后向左拖动或者向左倾斜用户手腕的第二用户交互时,第二线型UI7120被显示。当在图71B中所示的状态下进行第二用户交互时,控制器120使得第一引导图像7010消失在边缘中。控制器120移动在屏幕内部的第二引导图像7020并且逐渐地将第二引导图像7020改变为第二线型UI7120。
图72A、图72B和图72C是示出根据本公开的实施例的实际UI屏幕的例子的视图。
参照图72A,示出跑步管理应用的执行屏幕7000。第一引导图像7010和第二引导图像7020被显示在执行屏幕7000的相对边缘上。
在此状态下,如图72B中所示,当进行第一用户交互时,第一引导图像7010被改变为第一线型UI7110。第一线型UI7110可以是用于显示与在移动设备100中安装的应用相对应的图标的UI。此外,如图72C中所示,当进行第二用户交互时,第二引导图像7020被改变为第二线型UI7120。第二线型UI7120可以是用于显示按时间顺序排列的使用记录的UI。具体而言,第二线型UI7120可以显示由用户发送或接收的消息、用户所拍摄的照片、SNS消息等等。
当第一线型UI7110的一个图标被选择时,控制器120可以直接执行与所选图标相对应的应用,并且显示该应用的执行屏幕。此外,当触摸第二线型UI7120的使用记录项时,控制器120可以直接执行与所触摸的项目相对应的应用,并且显示该应用的执行屏幕。
在图71A至图72C中,引导图像和线型UI一同被使用。然而,引导图像的显示可以被省略。此外,除了应用的执行屏幕之外,引导图像或线型UI可以被提供在待机屏幕上。
图73A、图73B和图73C是示出根据本公开的实施例的用于显示使用线型UI的应用执行屏幕的方法的视图。
参照图73A,示出待机屏幕7300的例子。待机屏幕7300显示以小时、分钟和秒为单位的时间线7301、7302和7303。时间线7301、7302和7303根据移动设备的形状被显示在纵长的方向中,并每个时间线7301、7302和7303通过随着时间流逝而逐个移动块来显示时间。具体而言,待机屏幕7300通过向下移动小时、分钟和秒的线7301、7302和7303的块,好像秒针被旋转一样,来显示当前时间。
当在此状态下进行解锁操作时,小时、分钟和秒的时间线被集成到待机屏幕7300中的单个长的时间线中,并且移动并消失在屏幕的一侧。在图73B中,被集成的时间线移动到屏幕右边并且被改变为第二引导图像7312。
如图73B中所示,当待机屏幕7300消失时,控制器120显示主屏幕7310。主屏幕7310在相对边缘上显示第一引导图像7311和第二引导图像7312。在此状态下,当用户进行触摸屏幕然后向右拖动或者将穿戴移动设备100的用户手腕向右倾斜的用户交互时,第一引导图像7311被改变为第一线型UI7320。多个图标7321至7325被显示在第二线型UI7320上。用户可以选择多个图标7321至7325中的图标以进行相应功能(例如,启动相关联的应用)。如图73C中所示,用户可以通过向上滚动或向下滚动第一线型UI7320来识别所安装应用的图标。
控制器120可以在与在第一线型UI7320的特定位置处显示的图标相对应的应用上显示预览屏幕7330。在图73D中,被显示在第一线型UI7320的中间位置处的图标7323的预览屏幕7330被显示。当特定图标被显示在中间位置超过预定时间或者在第一线型UI7320上选择图标时,控制器120可以在全屏幕上显示该图标的应用执行屏幕。
图74A、图74B、图74C、图74D和图74E是示出根据本公开的实施例的显示第二线型UI的过程的视图。
图74A示出当选择第一线型UI7410中的音乐应用时被显示的执行屏幕7400的例子。第二引导图像7402以细线的形式被显示在执行屏幕7400的右边缘上。执行屏幕7400可以显示音乐内容回放屏幕以及各种可选的音乐内容的信息。在此状态下,当用户进行触摸并从右向左拖动或者将用户手腕向左倾斜的用户交互时,显示在右边缘上的第二引导图像7402移动进来,如图74B中所示的。第二引导图像7402被自动地放大使得信息能够被识别并且被改变为第二线型UI7420,如图74C中所示的。第二线型UI7420显示与之前所执行的应用有关的信息和其他使用记录。控制器120可以以相同的颜色显示具有类似属性的应用。当用户滚动第二线型UI7420时,被显示在第二线型UI7420上的内容被改变,如图74C和图74D中所示的。
在此状态下,如图74E中所示,当选择一条信息时,与所选信息相对应的应用被执行并且该应用的执行屏幕7430被显示。相比之下,移动设备的屏幕可以根据除了用户交互之外的各种事件来改变。例如,当从另一个人发送来诸如邮件或文本的消息时,控制器120可以在待机屏幕上简短地显示所接收的消息。
图75A、图75B、图75C和图75D是示出根据本公开的各种实施例的移动设备的屏幕配置的视图。
图75A示出待机屏幕7500。待机屏幕7500显示第二引导图像7502。当在此状态下接收到消息时,控制器120在待机屏幕7500上显示所接收的消息7510,如图75B中所示的。如图75C中所示的,当在显示消息7510之后经过了预定时间时,控制器120在缩小消息7510的同时将消息7510向第二引导图像7502移动。因此,如图75D中所示的,消息7510完全地移向第二引导图像7502并消失,并且待机屏幕7500被显示。在图75A、图75B、图75C和图75D中,已描述了其中临时地在待机屏幕7500上显示的消息消失的过程。然而,类似的图形效果可以在各种状况中被提供。例如,当正被执行的应用被终止时,应用的执行屏幕可以消失到第二引导图像7502中,如图75B至图75D中所示的。
图76是示出根据本公开的实施例的用于显示提供线型UI的移动设备的UI的方法的流程图。例如,图76是示出根据本公开的实施例显示根据在图71至图75中所示的本公开的实施例的移动设备的UI的方法的流程图。
参照图76,在操作S7610,移动设备显示屏幕。
当在操作S7610处移动设备显示各种屏幕,诸如主屏幕、桌面屏幕、应用执行屏幕等等时,移动设备确定是否检测到用户交互。用户交互可以包括各种操作,诸如触摸屏幕并拖动或轻滑、旋转或倾斜穿戴移动设备的身体、输入语音命令、作出运动手势、按下按钮等等。例如,在操作S7615,移动设备确定是否检测到第一用户交互。
当在操作S7615处移动设备确定检测到预定第一用户交互时,移动设备继续进行操作S7620,其中移动设备显示第一线型UI。其后,移动设备继续进行操作S7625。
相反,当在操作S7615处移动设备确定没有检测到第一用户交互时,那么移动设备继续进行操作S7645,其中移动设备确定是否检测到第二用户交互。
当在操作S7645处移动设备确定检测到预定第二用户交互时,移动设备继续进行操作S7650,其中移动设备显示第二线型UI。其后,移动设备继续进行操作S7655。
在上述本公开的实施例中,第一线型UI是用于显示应用图标的UI并且第二线型UI是用于按时间顺序显示执行记录信息的UI。然而,第一和第二线型UI不限于这种例子。例如,第一和第二线型UI可以通过使用各种UI来实施,诸如按时间顺序显示执行记录信息的UI、显示优选的应用信息的UI、以及指示可执行内容的UI。
在操作S7625,移动设备确定是否选择第一线型UI中的图标。
当显示第一线型UI并且在操作S7625处移动设备确定用户选择了图标之一时,移动设备继续进行操作S7630,其中移动设备执行与所选图标相对应的应用。其后,移动设备继续进行操作S7635。
在操作S7635,移动设备显示该应用的执行屏幕。
相反,当在操作S7325处移动设备确定没选择第一线型UI中的图标时,那么移动设备继续进行操作S7640,其中移动设备在经过预定时间之后删除第一线型UI。
在操作S7655,移动设备确定是否选择第二线型UI中的项目(如信息)。
当显示第二线型UI并且在操作S7655处移动设备确定用户选择了项目(如信息)时,移动设备继续进行操作S7630,其中移动设备执行与所选信息相对应的应用。其后,移动设备继续进行操作S7635,其移动设备显示该应用的屏幕。在此情况下,所选信息可以直接地被显示在应用执行屏幕上。
相反,当在操作S7655处移动设备确定没选择第二线型UI中的项目(如信息)时,那么移动设备继续进行操作S7660,其中移动设备在经过预定时间之后删除第二线型UI。
在上述本公开的实施例中,第一线型UI被显示为图标UI并且第二线型UI被显示为执行记录UI。然而,根据本公开的各种实施例,第一和第二线型UI可以在第一和第二用户交互发生时根据移动设备的状态来不同地显示。
例如,当待机屏幕或主屏幕被显示并且第一用户交互发生时,控制器120在第一线型UI中显示应用图标,并且,当第二用户交互发生时,控制器120在第二线型UI中显示执行记录信息。相比之下,当音乐应用被执行并且第一用户交互发生时,控制器120在第一线型UI中显示可以由用户选择的内容信息,并且在第二线型UI中显示之前已经被用户回放的内容信息。当执行跑步管理应用时,第一线型UI可以显示关于好友的信息并且第二线型UI可以显示之前的跑步记录。
同样,在上述本公开的各种实施例中,线型的UI从左边缘或右边缘被打开。然而,UI的形状和显示方向不限于此。例如,UI可以从上边缘或下边缘被打开,或者可以从中间被展开。
如上所述,移动设备可以提供适用于手环形状的各种UI,并且UI可以根据适用于移动设备的形状的用户交互而改变。因此,用户能够在容易地携带移动设备的同时有效地使用各种应用。
根据参照图52至图76描述的本公开的各种实施例的移动设备的配置可以通过图1至图51的描述中公开的移动设备的配置或者它们的组合来实施。
例如,移动设备可以包括:存储器130、3320;无缝地形成于所述移动设备的外表面并在整个显示区域上显示在所述存储器130、3320中存储的应用的执行屏幕的显示器110、3310;被配置为检测用户交互的传感器(传感器174和140中的至少一个);以及控制器120、3330,被配置为根据用户交互来改变在所述执行屏幕中的、整个显示区域的可见区域上显示的屏幕的一部分。
此外,移动设备可以包括:存储预安装应用的存储器130、3320;检测用户交互的传感器(传感器174和140中的至少一个);显示器110;控制器120、3330,其在检测到第一用户交互时在所述显示器的屏幕的第一边缘上显示第一线型UI,并且在检测到第二用户交互时在所述显示器的屏幕的第二边缘上显示第二线型UI。
此外,移动设备可以通过使用包括如图32中所述的总体配置的设备来实施。
根据本公开的各种实施例,控制方法、屏幕显示方法以及UI显示方法可以被编码为软件并且可以被存储在非暂时性计算机可读介质。非暂时性计算机可读介质可以被连接到如上所述的各种类型的移动设备或被安装在其中,并且可以支持相应设备以进行上述方法。
非暂时性计算机可读介质是指半持久性地存储数据的介质,而不是如寄存器、缓存或内存的用于很短时间地存储数据的介质,并且非暂时性计算机可读介质可被装置读取。具体而言,上述各种应用或程序可以被存储提供在非暂态计算机可读介质中诸如光盘(CD)、数字多功能盘(DVD)、硬盘、蓝光光盘、通用串行总线(USB)、存储卡,和只读存储器(ROM),并且各种应用或程序可以被提供。
虽然已参考本公开的各种实施例示出和描述了本公开,但本领域技术人员应理解,在不脱离如权利要求及其等同物所限定的本公开的精神和范围的情况下,可对本公开进行形式和细节上的各种改变。
Claims (15)
1.一种可穿戴手环型的移动设备,包括:
显示器;
运动传感器,被配置为检测所述移动设备的运动;
存储器,被配置为存储根据运动状态而不同地设置的控制信息;以及
控制器,当运动被所述运动传感器检测到时,被配置为,根据与所检测的运动相对应的控制信息来改变所述显示器的屏幕。
2.如权利要求1所述的移动设备,其中,
当在内容正被回放的同时所述移动设备沿第一方向被移动时,所述控制器将屏幕改变为前一个内容回放屏幕,并且
当所述移动设备沿与第一方向相反的第二方向被移动时,所述控制器将屏幕改变为下一个内容回放屏幕。
3.如权利要求1所述的移动设备,其中,
当所述移动设备沿第一方向被移动时,所述控制器将屏幕改变为缩小的屏幕,并且
当所述移动设备沿与第一方向相反的第二方向被移动时,所述控制器将屏幕改变为放大的屏幕。
4.如权利要求1所述的移动设备,其中所述控制器根据由所述运动传感器检测到的运动来执行以下各项操作中的至少一个:改变内容、放大/缩小、改变屏幕排列方向、激活显示器、去激活显示器、关闭、打开、解锁、验证以及选择应用。
5.如权利要求1所述的移动设备,其中
当所述动作传感器的检测结果满足预定的停用条件时,所述控制器使显示器去激活,并且
当所述动作传感器的检测结果满足预定的使用条件时,所述控制器激活显示器。
6.如权利要求1所述的移动设备,还包括被配置以进行拍摄的相机,
其中,当在所述移动设备处于锁定状态的同时所述运动传感器的检测结果满足预定条件时,所述控制器控制相机以进行拍摄,并且,当在所拍摄的图像中识别出用户时,所述控制器进行解锁操作。
7.如权利要求1所述的移动设备,其中所述移动设备包括由柔性材料制成的主体,以便主体卷绕用户身体,
其中,所述显示器被形成在主体的一侧的整个表面上,并且
其中,当在主体被穿戴在用户身体上的同时主体的一端被展开时,所述控制器在所述一端上提供的显示区域上显示键盘。
8.如权利要求1所述的移动设备,其中所述主体包括:
第一部分,其中安装有所述显示器;
第二部分;
第一突起,其形成在所述第一部分上以便彼此间隔预定距离;以及
第二突起,其形成在第二部分上以与所述第一突起啮合,并且被配置为支撑所述第一部分以沿所述第二部分的外表面分阶段地滑动,
其中,当第一部分沿第二部分滑动并被旋转时,控制器显示与滑动阶段相对应的屏幕。
9.如权利要求1所述的移动设备,其中所述移动设备还包括:
垫子,被提供在所述移动设备的主体的内表面上;以及
空气驱动器,被配置为:
在移动设备被穿戴在用户身体上时使所述垫子膨胀并使得垫子与用户身体紧密接触,并且
当输入移除移动设备的命令时,所述空气驱动器被配置为使所述垫子收缩为原始状态。
10.如权利要求1所述的移动设备,还包括由柔性带构成的主体,并且其中,所述显示器、运动传感器和控制器是可安装在主体中或从主体可卸载的集成模块。
11.一种用于控制移动设备的方法,该移动设备包括被配置为穿戴在用户身体上的手环型主体以及在该主体中安装的显示器,所述方法包括:
检测所述移动设备的运动;以及
根据所检测的运动来改变在所述显示器上显示的屏幕。
12.如权利要求11所述的方法,其中,改变屏幕包括:
当在内容正被回放的同时所述显示器沿第一方向被移动时,将屏幕改变为前一个内容回放屏幕,并且
当所述显示器沿与第一方向相反的第二方向被移动时,将屏幕改变为下一个内容回放屏幕。
13.如权利要求11所述的方法,其中,改变屏幕包括:
当所述显示器沿第一方向被移动时,将屏幕改变为缩小的屏幕,并且
当所述显示器沿与第一方向相反的第二方向被移动时,将屏幕改变为放大的屏幕。
14.如权利要求11所述的方法,其中,运动为以下各项中的至少一个:所述显示器围绕主体的外圆周旋转的旋转运动、以及移动设备的移动运动,
其中所述方法还包括,根据所检测的运动来进行以下操作中的至少一个:改变内容、放大/缩小、改变屏幕排列方向、激活显示器、去激活显示器、关闭、打开、解锁、验证以及选择应用。
15.如权利要求11所述的方法,还包括:
拍摄图像;
使用拍摄的结果和所述移动设备的运动中的至少一个来确定用户位置;以及
进行与所确定的用户位置相对应的控制操作。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120143064 | 2012-12-10 | ||
KR10-2012-0143064 | 2012-12-10 | ||
KR10-2013-0001235 | 2013-01-04 | ||
KR20130001235 | 2013-01-04 | ||
KR20130001820 | 2013-01-07 | ||
KR10-2013-0001820 | 2013-01-07 | ||
KR1020130141955A KR102206044B1 (ko) | 2012-12-10 | 2013-11-21 | 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법 |
KR10-2013-0141955 | 2013-11-21 | ||
PCT/KR2013/011429 WO2014092437A1 (en) | 2012-12-10 | 2013-12-10 | Mobile device of bangle type, control method thereof, and ui display method |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105144026A true CN105144026A (zh) | 2015-12-09 |
CN105144026B CN105144026B (zh) | 2018-06-01 |
Family
ID=51127815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380072661.9A Active CN105144026B (zh) | 2012-12-10 | 2013-12-10 | 手环型移动设备及其控制方法和ui显示方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10433172B2 (zh) |
KR (3) | KR102206044B1 (zh) |
CN (1) | CN105144026B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105827265A (zh) * | 2016-03-30 | 2016-08-03 | 深圳还是威健康科技有限公司 | 基于可穿戴设备的数据传输方法和装置 |
CN106200978A (zh) * | 2016-07-20 | 2016-12-07 | 百度在线网络技术(北京)有限公司 | 应用于终端的对象显示方法和装置 |
CN108363917A (zh) * | 2018-01-31 | 2018-08-03 | 努比亚技术有限公司 | 移动终端解锁方法、移动终端及计算机可读存储介质 |
CN110007993A (zh) * | 2019-03-15 | 2019-07-12 | 努比亚技术有限公司 | 信息加载、展示方法、可穿戴设备及计算机可读存储介质 |
CN110073172A (zh) * | 2016-12-15 | 2019-07-30 | 奥迪股份公司 | 用于确定机动车的相对位置的方法、用于机动车的位置确定系统和机动车 |
CN110069103A (zh) * | 2019-04-29 | 2019-07-30 | 努比亚技术有限公司 | 一种交互操作方法、设备及计算机可读存储介质 |
CN110134256A (zh) * | 2019-04-28 | 2019-08-16 | 努比亚技术有限公司 | 一种地图操作方法、可穿戴设备及计算机可读存储介质 |
CN110506238A (zh) * | 2017-04-21 | 2019-11-26 | 索尼公司 | 信息显示装置 |
CN110753900A (zh) * | 2017-06-16 | 2020-02-04 | 威尔乌集团 | 具有手指运动感测的电子控制器 |
CN113485086A (zh) * | 2021-06-30 | 2021-10-08 | 歌尔科技有限公司 | 一种可穿戴设备 |
CN113535109A (zh) * | 2021-09-17 | 2021-10-22 | 南昌龙旗信息技术有限公司 | 展示终端及展示方法 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9898712B2 (en) * | 2004-02-03 | 2018-02-20 | Rtc Industries, Inc. | Continuous display shelf edge label device |
US9818148B2 (en) | 2013-03-05 | 2017-11-14 | Rtc Industries, Inc. | In-store item alert architecture |
US8938396B2 (en) | 2004-02-03 | 2015-01-20 | Rtc Industries, Inc. | System for inventory management |
EP2741176A3 (en) * | 2012-12-10 | 2017-03-08 | Samsung Electronics Co., Ltd | Mobile device of bangle type, control method thereof, and UI display method |
US11429151B2 (en) | 2014-02-25 | 2022-08-30 | Medibotics Llc | Wearable devices for the wrist and/or arm with multiple and multi-configuration displays |
CN116301544A (zh) | 2014-06-27 | 2023-06-23 | 苹果公司 | 尺寸减小的用户界面 |
EP3195098A2 (en) | 2014-07-21 | 2017-07-26 | Apple Inc. | Remote user interface |
DE202015005394U1 (de) * | 2014-08-02 | 2015-12-08 | Apple Inc. | Kontextspezifische Benutzerschnittstellen |
US10452253B2 (en) | 2014-08-15 | 2019-10-22 | Apple Inc. | Weather user interface |
KR102188267B1 (ko) * | 2014-10-02 | 2020-12-08 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US11182738B2 (en) | 2014-11-12 | 2021-11-23 | Rtc Industries, Inc. | System for inventory management |
WO2016080557A1 (ko) * | 2014-11-17 | 2016-05-26 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
KR101549353B1 (ko) * | 2014-11-18 | 2015-09-02 | 조성용 | 생체 음원 인식 기능을 갖는 스마트 와치 |
KR102364841B1 (ko) | 2014-12-04 | 2022-02-18 | 삼성전자주식회사 | 휴대용 헬스 케어 장치 및 그 동작 방법 |
KR102343141B1 (ko) * | 2014-12-19 | 2021-12-27 | 삼성디스플레이 주식회사 | 스트레쳐블 디스플레이를 이용한 디바이스 및 이의 제어 방법 |
KR102358750B1 (ko) * | 2014-12-29 | 2022-02-07 | 엘지전자 주식회사 | 포터블 디바이스 및 그 제어 방법 |
KR102353350B1 (ko) * | 2015-01-15 | 2022-01-19 | 삼성디스플레이 주식회사 | 가변 디스플레이 장치 |
KR101557608B1 (ko) * | 2015-01-23 | 2015-10-05 | 주식회사 바우드 | 촬영 모듈이 구비된 플렉서블 장치 |
WO2016144385A1 (en) | 2015-03-08 | 2016-09-15 | Apple Inc. | Sharing user-configurable graphical constructs |
CN113521710A (zh) | 2015-08-20 | 2021-10-22 | 苹果公司 | 基于运动的表盘和复杂功能块 |
WO2017034126A1 (ko) * | 2015-08-25 | 2017-03-02 | 엘지전자(주) | 이동단말기 |
US9979591B2 (en) | 2015-08-28 | 2018-05-22 | Samsung Electronics Co., Ltd. | Event notifications for applications |
KR102423830B1 (ko) * | 2015-11-10 | 2022-07-22 | 삼성전자주식회사 | 웨어러블 장치 및 그 제어 방법 |
KR102412387B1 (ko) * | 2015-11-19 | 2022-06-23 | 엘지전자 주식회사 | 이동 단말기 및 그의 기능 객체 정렬 방법 |
KR102479462B1 (ko) * | 2015-12-07 | 2022-12-21 | 삼성전자주식회사 | 플렉서블 전자장치 및 그 동작 방법 |
US11265362B1 (en) * | 2015-12-28 | 2022-03-01 | Ted Tabacco | Mobile application streaming platform |
KR102464916B1 (ko) | 2016-02-01 | 2022-11-08 | 삼성전자주식회사 | 반지형 웨어러블 기기 |
CN108700958B (zh) * | 2016-03-01 | 2021-08-10 | 麦克赛尔株式会社 | 可穿戴信息终端 |
DK201770423A1 (en) | 2016-06-11 | 2018-01-15 | Apple Inc | Activity and workout updates |
US10902829B2 (en) * | 2017-03-16 | 2021-01-26 | Sony Corporation | Method and system for automatically creating a soundtrack to a user-generated video |
DK179412B1 (en) | 2017-05-12 | 2018-06-06 | Apple Inc | Context-Specific User Interfaces |
KR102350781B1 (ko) * | 2017-06-15 | 2022-01-14 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US10558278B2 (en) | 2017-07-11 | 2020-02-11 | Apple Inc. | Interacting with an electronic device through physical movement |
CN108229117A (zh) * | 2017-11-29 | 2018-06-29 | 努比亚技术有限公司 | 柔性屏终端及其安全控制方法及计算机可读存储介质 |
US11327650B2 (en) | 2018-05-07 | 2022-05-10 | Apple Inc. | User interfaces having a collection of complications |
US11960701B2 (en) | 2019-05-06 | 2024-04-16 | Apple Inc. | Using an illustration to show the passing of time |
US11409366B2 (en) * | 2019-10-03 | 2022-08-09 | Charles Isgar | Gesture-based device activation system |
JP7028235B2 (ja) * | 2019-11-29 | 2022-03-02 | カシオ計算機株式会社 | 電子機器、方法及びプログラム |
CN118012306A (zh) | 2020-05-11 | 2024-05-10 | 苹果公司 | 用于管理用户界面共享的用户界面 |
DK202070625A1 (en) | 2020-05-11 | 2022-01-04 | Apple Inc | User interfaces related to time |
US11921992B2 (en) | 2021-05-14 | 2024-03-05 | Apple Inc. | User interfaces related to time |
WO2022245669A1 (en) | 2021-05-15 | 2022-11-24 | Apple Inc. | User interfaces for group workouts |
WO2022246060A1 (en) * | 2021-05-19 | 2022-11-24 | Apple Inc. | Navigating user interfaces using hand gestures |
KR102695365B1 (ko) | 2021-12-08 | 2024-08-16 | 한국전자통신연구원 | 항적 데이터를 이용한 해양 사건 브리핑 장치 및 이를 이용한 방법 |
US20230236547A1 (en) | 2022-01-24 | 2023-07-27 | Apple Inc. | User interfaces for indicating time |
WO2024085382A1 (ko) * | 2022-10-21 | 2024-04-25 | 삼성전자 주식회사 | 웨어러블 전자 장치 및 상기 웨어러블 전자 장치의 제어 방법 |
WO2024129081A1 (en) * | 2022-12-15 | 2024-06-20 | Google Llc | Display device with variable power consumption |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0951883A2 (en) * | 1998-03-18 | 1999-10-27 | Nippon Telegraph and Telephone Corporation | Wearable communication device with bone conduction transducer |
US20040008191A1 (en) * | 2002-06-14 | 2004-01-15 | Ivan Poupyrev | User interface apparatus and portable information apparatus |
CN1649474A (zh) * | 2004-01-30 | 2005-08-03 | 精工爱普生株式会社 | 显示装置、显示装置的控制方法、控制程序及记录介质 |
US20080291225A1 (en) * | 2007-05-23 | 2008-11-27 | Motorola, Inc. | Method and apparatus for re-sizing an active area of a flexible display |
CN101640712A (zh) * | 2008-07-29 | 2010-02-03 | Lg电子株式会社 | 移动终端及其操作控制方法 |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3911664A (en) | 1974-10-21 | 1975-10-14 | Terry M Haber | Wrist actuated pressure switch for watches |
US20120233631A1 (en) * | 1991-12-02 | 2012-09-13 | Geshwind David M | Processes and systems for creating and delivering granular idiomorphic media suitable for interstitial channels |
US5931764A (en) | 1998-06-24 | 1999-08-03 | Viztec, Inc. | Wearable device with flexible display |
US20040073809A1 (en) * | 2002-10-10 | 2004-04-15 | Wing Keong Bernard Ignatius Ng | System and method for securing a user verification on a network using cursor control |
US20060028429A1 (en) * | 2004-08-09 | 2006-02-09 | International Business Machines Corporation | Controlling devices' behaviors via changes in their relative locations and positions |
US20060061563A1 (en) * | 2004-09-17 | 2006-03-23 | Fleck Rod G | Power-management method and system for electronic appliances |
US7254516B2 (en) | 2004-12-17 | 2007-08-07 | Nike, Inc. | Multi-sensor monitoring of athletic performance |
JP2006236244A (ja) * | 2005-02-28 | 2006-09-07 | Toshiba Corp | 顔認証装置および入退場管理装置 |
CN100345153C (zh) | 2005-04-30 | 2007-10-24 | 清华大学 | 基于人脸几何尺寸归一化的人脸图像识别方法 |
US20100045705A1 (en) | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
US20090265671A1 (en) | 2008-04-21 | 2009-10-22 | Invensense | Mobile devices with motion gesture recognition |
KR101460111B1 (ko) * | 2007-10-17 | 2014-11-11 | 삼성전자주식회사 | 휴대 단말기 및 그의 메뉴 표시 방법 |
US20090259865A1 (en) | 2008-04-11 | 2009-10-15 | Qualcomm Incorporated | Power Management Using At Least One Of A Special Purpose Processor And Motion Sensing |
KR101453908B1 (ko) * | 2008-06-24 | 2014-10-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101529921B1 (ko) | 2008-11-04 | 2015-06-18 | 엘지전자 주식회사 | 와치형 단말기 |
KR101083158B1 (ko) * | 2008-12-04 | 2011-11-11 | 에스케이텔레시스 주식회사 | 터치스크린이 구비된 이동 단말기의 컨텐츠 전환 방법 |
US8289162B2 (en) | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
US20100218141A1 (en) * | 2009-02-23 | 2010-08-26 | Motorola, Inc. | Virtual sphere input controller for electronics device |
US20100315439A1 (en) | 2009-06-15 | 2010-12-16 | International Business Machines Corporation | Using motion detection to process pan and zoom functions on mobile computing devices |
TWI554076B (zh) * | 2009-09-04 | 2016-10-11 | 普露諾洛股份有限公司 | 遠距離的電話管理器 |
US20110099607A1 (en) * | 2009-10-27 | 2011-04-28 | Activepath Ltd. | Method of authenticating and branding emails and other messages using information available in a message list |
KR101072349B1 (ko) * | 2009-11-19 | 2011-10-12 | 주식회사 엘지유플러스 | 웹 애플리케이션 플랫폼 및 웹 애플리케이션을 실행하는 모바일 단말 |
CN102111490A (zh) | 2009-12-23 | 2011-06-29 | 索尼爱立信移动通讯有限公司 | 移动终端的键盘自动解锁方法及装置 |
US20110157022A1 (en) | 2009-12-29 | 2011-06-30 | Tim Goldburt | Bracelets for wearing by a user |
KR101078899B1 (ko) | 2010-01-29 | 2011-11-01 | 주식회사 팬택 | 플렉서블 디스플레이의 영상 출력 위치 제어 장치 |
US8464183B2 (en) | 2010-06-03 | 2013-06-11 | Hewlett-Packard Development Company, L.P. | System and method for distinguishing multimodal commands directed at a machine from ambient human communications |
KR101323390B1 (ko) * | 2010-09-20 | 2013-10-29 | 엘지디스플레이 주식회사 | 유기발광다이오드 표시소자와 그 저전력 구동방법 |
US8651809B2 (en) * | 2010-10-13 | 2014-02-18 | General Electric Company | Apparatus and method for aligning a turbine casing |
KR101726607B1 (ko) | 2010-10-19 | 2017-04-13 | 삼성전자주식회사 | 휴대 단말기의 화면 제어 방법 및 장치 |
US20120098639A1 (en) * | 2010-10-26 | 2012-04-26 | Nokia Corporation | Method and apparatus for providing a device unlock mechanism |
KR101832463B1 (ko) * | 2010-12-01 | 2018-02-27 | 엘지전자 주식회사 | 화면 표시 제어 방법 및 그를 이용한 영상 표시 기기 |
KR101750342B1 (ko) * | 2010-12-20 | 2017-06-23 | 엘지전자 주식회사 | 이동 단말기 및 그의 터치 제스처에 의한 어플리케이션 및 컨텐츠 제어방법 |
KR101273182B1 (ko) | 2011-02-18 | 2013-06-17 | 주식회사 팬택 | 연성 디스플레이 장치 및 이를 이용한 이동통신 단말기 |
US8432687B2 (en) | 2011-02-23 | 2013-04-30 | Cole Patrick Schneider | Answer bracelet |
US20120255978A1 (en) | 2011-04-05 | 2012-10-11 | Gary Williams | Wrist holder for cell phones |
US9727124B2 (en) | 2011-04-19 | 2017-08-08 | Apple Inc. | Power saving application update in a portable electronic device |
JP2013020304A (ja) * | 2011-07-07 | 2013-01-31 | Ntt Docomo Inc | 移動情報端末、行動特徴学習方法、行動特徴認証方法、プログラム |
KR20130008424A (ko) * | 2011-07-12 | 2013-01-22 | 삼성전자주식회사 | 휴대 단말기에서 바로 가기 기능을 실행하는 장치 및 방법 |
JP2013051680A (ja) * | 2011-08-03 | 2013-03-14 | Kyocera Corp | 携帯電子機器、制御方法、および、制御プログラム |
US9596084B2 (en) * | 2011-09-09 | 2017-03-14 | Facebook, Inc. | Initializing camera subsystem for face detection based on sensor inputs |
US8929085B2 (en) | 2011-09-30 | 2015-01-06 | Apple Inc. | Flexible electronic devices |
US20130191741A1 (en) | 2012-01-24 | 2013-07-25 | Motorola Mobility, Inc. | Methods and Apparatus for Providing Feedback from an Electronic Device |
KR101443960B1 (ko) * | 2012-02-22 | 2014-11-03 | 주식회사 팬택 | 사용자 인증 전자 장치 및 방법 |
KR101894567B1 (ko) | 2012-02-24 | 2018-09-03 | 삼성전자 주식회사 | 락스크린 운용 방법 및 이를 지원하는 단말기 |
US20150051913A1 (en) * | 2012-03-16 | 2015-02-19 | Lg Electronics Inc. | Unlock method using natural language processing and terminal for performing same |
US20130271355A1 (en) | 2012-04-13 | 2013-10-17 | Nokia Corporation | Multi-segment wearable accessory |
US8254647B1 (en) | 2012-04-16 | 2012-08-28 | Google Inc. | Facial image quality assessment |
US20130335405A1 (en) | 2012-06-18 | 2013-12-19 | Michael J. Scavezze | Virtual object generation within a virtual environment |
US20130342672A1 (en) | 2012-06-25 | 2013-12-26 | Amazon Technologies, Inc. | Using gaze determination with device input |
US9235241B2 (en) * | 2012-07-29 | 2016-01-12 | Qualcomm Incorporated | Anatomical gestures detection system using radio signals |
KR102001913B1 (ko) * | 2012-09-27 | 2019-07-19 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 방법 |
US9230158B1 (en) | 2012-12-18 | 2016-01-05 | Amazon Technologies, Inc. | Fraud detection for facial recognition systems |
-
2013
- 2013-11-21 KR KR1020130141955A patent/KR102206044B1/ko active IP Right Grant
- 2013-12-10 CN CN201380072661.9A patent/CN105144026B/zh active Active
-
2019
- 2019-05-15 US US16/413,074 patent/US10433172B2/en active Active
- 2019-09-27 US US16/585,958 patent/US11134381B2/en active Active
-
2022
- 2022-02-16 KR KR1020220020217A patent/KR102492280B1/ko active IP Right Grant
-
2023
- 2023-01-19 KR KR1020230008289A patent/KR102607600B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0951883A2 (en) * | 1998-03-18 | 1999-10-27 | Nippon Telegraph and Telephone Corporation | Wearable communication device with bone conduction transducer |
US20040008191A1 (en) * | 2002-06-14 | 2004-01-15 | Ivan Poupyrev | User interface apparatus and portable information apparatus |
CN1649474A (zh) * | 2004-01-30 | 2005-08-03 | 精工爱普生株式会社 | 显示装置、显示装置的控制方法、控制程序及记录介质 |
US20080291225A1 (en) * | 2007-05-23 | 2008-11-27 | Motorola, Inc. | Method and apparatus for re-sizing an active area of a flexible display |
CN101640712A (zh) * | 2008-07-29 | 2010-02-03 | Lg电子株式会社 | 移动终端及其操作控制方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105827265A (zh) * | 2016-03-30 | 2016-08-03 | 深圳还是威健康科技有限公司 | 基于可穿戴设备的数据传输方法和装置 |
CN106200978A (zh) * | 2016-07-20 | 2016-12-07 | 百度在线网络技术(北京)有限公司 | 应用于终端的对象显示方法和装置 |
CN106200978B (zh) * | 2016-07-20 | 2019-12-17 | 百度在线网络技术(北京)有限公司 | 应用于终端的对象显示方法和装置 |
CN110073172A (zh) * | 2016-12-15 | 2019-07-30 | 奥迪股份公司 | 用于确定机动车的相对位置的方法、用于机动车的位置确定系统和机动车 |
CN110073172B (zh) * | 2016-12-15 | 2023-04-28 | 奥迪股份公司 | 用于确定机动车的相对位置的方法、用于机动车的位置确定系统和机动车 |
CN110506238B (zh) * | 2017-04-21 | 2022-06-28 | 索尼公司 | 信息显示装置 |
CN110506238A (zh) * | 2017-04-21 | 2019-11-26 | 索尼公司 | 信息显示装置 |
CN110753900A (zh) * | 2017-06-16 | 2020-02-04 | 威尔乌集团 | 具有手指运动感测的电子控制器 |
CN108363917A (zh) * | 2018-01-31 | 2018-08-03 | 努比亚技术有限公司 | 移动终端解锁方法、移动终端及计算机可读存储介质 |
CN110007993A (zh) * | 2019-03-15 | 2019-07-12 | 努比亚技术有限公司 | 信息加载、展示方法、可穿戴设备及计算机可读存储介质 |
CN110134256A (zh) * | 2019-04-28 | 2019-08-16 | 努比亚技术有限公司 | 一种地图操作方法、可穿戴设备及计算机可读存储介质 |
CN110069103A (zh) * | 2019-04-29 | 2019-07-30 | 努比亚技术有限公司 | 一种交互操作方法、设备及计算机可读存储介质 |
CN113485086A (zh) * | 2021-06-30 | 2021-10-08 | 歌尔科技有限公司 | 一种可穿戴设备 |
CN113535109A (zh) * | 2021-09-17 | 2021-10-22 | 南昌龙旗信息技术有限公司 | 展示终端及展示方法 |
CN113535109B (zh) * | 2021-09-17 | 2021-12-10 | 南昌龙旗信息技术有限公司 | 展示终端及展示方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102492280B1 (ko) | 2023-01-27 |
US10433172B2 (en) | 2019-10-01 |
US20190268771A1 (en) | 2019-08-29 |
KR20220024386A (ko) | 2022-03-03 |
KR20230016700A (ko) | 2023-02-02 |
US11134381B2 (en) | 2021-09-28 |
KR102607600B1 (ko) | 2023-11-30 |
CN105144026B (zh) | 2018-06-01 |
KR20140074824A (ko) | 2014-06-18 |
KR102206044B1 (ko) | 2021-01-21 |
US20200029216A1 (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11930361B2 (en) | Method of wearable device displaying icons, and wearable device for performing the same | |
KR102607600B1 (ko) | 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법 | |
KR102224349B1 (ko) | 컨텐츠를 표시하는 사용자 단말 장치 및 그 방법 | |
US11907013B2 (en) | Continuity of applications across devices | |
KR102423826B1 (ko) | 사용자 단말 장치 및 그의 제어 방법 | |
US10698564B2 (en) | User terminal device and displaying method thereof | |
US8443199B2 (en) | Mobile terminal and method of controlling the mobile terminal | |
CN105278902B (zh) | 移动终端及其控制方法 | |
US9632578B2 (en) | Method and device for switching tasks | |
US12015732B2 (en) | Device, method, and graphical user interface for updating a background for home and wake screen user interfaces | |
US20100231356A1 (en) | Mobile terminal and method of controlling the mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |